Wiki / AI & LLMWIKI.0030

Ollama GUI Projekt

GitHub

Entwicklung einer Streamlit-Oberfläche für Ollama — von der Motivation über die Umsetzung bis zum fertigen Profil- und Token-Tracking-System.

2026.04.05

Inhalt

Motivation

Ollama stellt lokale Sprachmodelle als REST-API bereit, bietet aber keine grafische Benutzeroberfläche. Ziel war eine einfache, konfigurierbare GUI, die verschiedene Modelle und Profile verwaltet und direkt im Browser bedienbar ist.

Technologie

Umgesetzt mit Streamlit als Frontend-Framework. Streamlit ermöglicht schnelle UI-Entwicklung in reinem Python ohne separate Frontend-Kenntnisse. Die Kommunikation mit Ollama läuft über dessen REST-API.

Profile & Konfiguration

Jedes Profil speichert Modell, System-Prompt, Temperatur und maximale Token-Anzahl. Profile lassen sich zur Laufzeit wechseln. Konfigurationen werden als JSON lokal gespeichert.

Token-Tracking

Jede Anfrage wird mit Input- und Output-Token protokolliert. Eine Session-Übersicht zeigt den kumulierten Verbrauch. Das hilft beim Vergleich von Modellen und beim Optimieren von Prompts auf Effizienz.