Lokale KIEinsteiger

Open-WebUI mit Ollama einrichten: Docker-Anleitung (2026)

15 Min. Setup📖 10 Min. LesezeitVeröffentlicht: 7. April 2026
Open-WebUI Chat-Oberfläche mit Modellauswahl, das Llama 3.3 als aktives Modell zeigt

Open-WebUI ist eine browserbasierte Oberfläche für Ollama, die eine ChatGPT-ähnliche Chat-Erfahrung für lokale Modelle bietet. Es ergänzt Ollama um Funktionen, die der CLI fehlen: eine Gesprächsverlaufs-Seitenleiste, Modellwechsel ohne Neustart, Datei-Uploads für Dokument-Q&A, Bildgenerierungsunterstützung und Mehrbenutzer-Zugang mit getrennten Konten.

Das Projekt hat über 65.000 GitHub-Sterne und ist das am weitesten verbreitete Frontend für lokale LLM-Setups. Diese Anleitung behandelt zwei Installationsmethoden: einen einzelnen Docker-Befehl für den persönlichen Einsatz und ein Docker-Compose-Setup für den gemeinsamen Betrieb mit Ollama auf einem Remote-Server. Beide Methoden sind in unter 5 Minuten abgeschlossen.

Vor dieser Anleitung muss Ollama installiert und in Betrieb sein. Falls Ollama noch nicht eingerichtet wurde, zunächst die Ollama-Installationsanleitung aufrufen.

Voraussetzungen

  • Ollama installiert und laufend (mindestens ein Modell mit ollama pull gezogen)
  • Docker Engine 24.x+ installiert
  • Port 3000 auf Ihrem Rechner frei (Standard-Port von Open-WebUI)
  • 500 MB freier Festplattenspeicher für das Open-WebUI-Docker-Image

Diese Anleitung läuft auf einem Standard-VPS.

Contabo Cloud VPS 10€5,45/Monat →
Inhaltsverzeichnis

Schnellinstallation mit Docker (empfohlen für lokale Nutzung)

Wenn Ollama nativ auf demselben Rechner läuft (nicht in Docker), genügt dieser einzelne Befehl, um Open-WebUI zu installieren und zu starten:

bash
docker run -d \
  -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

Was jedes Flag bewirkt:

  • -p 3000:8080 — bildet Port 8080 im Container auf Port 3000 auf Ihrem Rechner ab
  • --add-host=host.docker.internal:host-gateway — ermöglicht dem Container, das auf dem Host laufende Ollama zu erreichen
  • -v open-webui:/app/backend/data — speichert Gespräche, Einstellungen und Uploads dauerhaft in einem Docker-Volume
  • --restart always — startet Open-WebUI automatisch neu, falls der Container stoppt oder der Server neu startet

30-60 Sekunden warten, bis das Image heruntergeladen und der Container gestartet ist. Dann im Browser öffnen:

bash
http://localhost:3000
ℹ️
Hinweis:Beim ersten Öffnen von Open-WebUI werden Sie aufgefordert, ein Admin-Konto zu erstellen. Das erste erstellte Konto wird zum Administrator. Alle nachfolgenden Konten erfordern standardmäßig eine Admin-Genehmigung.

Nach der Kontoerstellung ein Modell aus der Dropdown-Liste oben im Chat-Fenster auswählen und ein Gespräch beginnen.

Ollama-Verbindung prüfen

Falls die Modell-Dropdown-Liste leer ist oder "Keine Modelle verfügbar" anzeigt, kann Open-WebUI Ollama nicht erreichen:

bash
# Aus dem Open-WebUI-Container heraus die Ollama-API testen
docker exec open-webui curl -s http://host.docker.internal:11434
# Erwartet: Ollama is running

Falls dieser Befehl fehlschlägt, läuft Ollama nicht. Ollama starten: ollama serve (oder sudo systemctl start ollama unter Linux).

Docker-Compose-Setup (Ollama + Open-WebUI gemeinsam)

Docker Compose verwenden, wenn Ollama und Open-WebUI gemeinsam in Containern laufen sollen — üblich für Remote-Server-Deployments.

Projektverzeichnis und docker-compose.yml-Datei erstellen:

bash
mkdir -p ~/open-webui && cd ~/open-webui
nano docker-compose.yml

Folgendes einfügen:

yaml
version: '3.8'

volumes:
  ollama_data:
  open_webui_data:

services:
  ollama:
    image: ollama/ollama
    restart: unless-stopped
    volumes:
      - ollama_data:/root/.ollama
    ports:
      - "11434:11434"
    # Für NVIDIA GPU-Durchleitung, folgende Zeilen einkommentieren:
    # deploy:
    #   resources:
    #     reservations:
    #       devices:
    #         - driver: nvidia
    #           count: all
    #           capabilities: [gpu]

  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    restart: unless-stopped
    ports:
      - "3000:8080"
    environment:
      - OLLAMA_BASE_URL=http://ollama:11434
    volumes:
      - open_webui_data:/app/backend/data
    depends_on:
      - ollama

Beide Dienste starten:

bash
docker compose up -d

Prüfen, ob beide Container laufen:

bash
docker compose ps

Ein Modell in den Ollama-Container ziehen:

bash
docker compose exec ollama ollama pull llama3.3:8b
ℹ️
Hinweis:Im Docker-Compose-Setup verbindet sich Open-WebUI mit Ollama über den Docker-Netzwerk-Hostnamen ollama (den Dienstnamen). Die Umgebungsvariable OLLAMA_BASE_URL=http://ollama:11434 setzt dies. Hier nicht localhost oder host.docker.internal verwenden.

Erste Nutzung und wichtige Funktionen

Nach der Erstellung des Admin-Kontos sind folgende Bereiche zu erkunden:

Modell auswählen und laden

Die Modell-Dropdown-Liste oben in der Mitte des Chat-Fensters öffnen. Alle mit Ollama gezogenen Modelle erscheinen hier. llama3.3:8b (oder das gezogene Modell) auswählen und ein Gespräch beginnen.

Dateien für Dokument-Q&A hochladen

Open-WebUI unterstützt RAG (Retrieval-Augmented Generation) standardmäßig. Auf das Büroklammersymbol in der Chat-Eingabe klicken, um eine PDF-, Word- oder Textdatei hochzuladen. Das Modell liest das Dokument und beantwortet Fragen zu seinem Inhalt.

ℹ️
Hinweis:Die Genauigkeit des Dokument-Q&A hängt vom Modell ab. Größere Modelle (13B+) liefern genauere Antworten aus Dokumenten als 7B-Modelle. Das Dokument wird in Text umgewandelt und als Kontext übergeben.

Mehrere Nutzer verwalten

Im Admin-Panel (Benutzername unten links anklicken, dann Admin-Panel) können Sie:

  • Ausstehende Benutzerregistrierungen genehmigen
  • Standardmodelle für neue Nutzer festlegen
  • Konfigurieren, welche Modelle für Nicht-Admin-Nutzer sichtbar sind
  • Benutzerregistrierung aktivieren oder deaktivieren

Websuche aktivieren

Open-WebUI unterstützt die Websuchintegration über SearXNG, die Bing-Such-API oder die Google Programmable Search. Unter Admin-Panel > Einstellungen > Websuche einen Suchanbieter konfigurieren. Sobald aktiviert, können Nutzer Anfragen mit @web beginnen, um Suchergebnisse als Kontext einzubeziehen.

Wichtige Konfigurationsoptionen

Open-WebUI liest die Konfiguration aus Umgebungsvariablen, die dem Docker-Container übergeben werden.

VariableStandardZweck
OLLAMA_BASE_URLhttp://localhost:11434Ollama-API-Endpunkt
WEBUI_SECRET_KEYzufälligJWT-Secret für Sitzungstoken. Explizit setzen für stabile Sitzungen über Neustarts hinweg
DEFAULT_MODELSerstes verfügbaresStandardmäßig geladenes Modell für neue Chat-Sitzungen
ENABLE_SIGNUPtrueAuf false setzen, um neue Benutzerregistrierungen zu deaktivieren
DEFAULT_USER_ROLEpendingRolle für neue Registrierungen: pending, user oder admin
WEBUI_AUTHtrueAuf false setzen, um Anmeldung komplett zu deaktivieren (Einzelnutzer-Lokal-Setup)
OPENAI_API_KEYnicht gesetztOpenAI-API-Schlüssel zum Mischen lokaler und Cloud-Modelle

Beispiel: Auth für ein Einzelnutzer-Lokal-Setup deaktivieren:

bash
docker run -d \
  -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  -e WEBUI_AUTH=false \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main
⚠️
Warnung:Das Setzen von WEBUI_AUTH=false entfernt den Anmeldebildschirm vollständig. Jeder, der Port 3000 erreichen kann, kann Open-WebUI ohne Passwort nutzen. Nur auf einem lokalen Rechner oder hinter einem privaten Netzwerk verwenden.

Open-WebUI aktualisieren

Open-WebUI veröffentlicht häufig Updates. Durch das Ziehen des neuesten Images und die Neuerstellung des Containers aktualisieren:

Docker (einzelner Container)

bash
# Neuestes Image ziehen
docker pull ghcr.io/open-webui/open-webui:main

# Aktuellen Container stoppen und entfernen (Daten befinden sich im benannten Volume)
docker stop open-webui
docker rm open-webui

# Neuen Container mit aktualisiertem Image starten
docker run -d \
  -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

Docker Compose

bash
cd ~/open-webui

# Neue Images ziehen
docker compose pull

# Container mit neuen Images neu erstellen
docker compose up -d

Gespräche, Einstellungen und hochgeladene Dokumente sind im Docker-Volume open-webui gespeichert und werden durch das Entfernen des Containers nicht beeinflusst.

Fehlerbehebung

ProblemUrsacheLösung
Modell-Dropdown-Liste ist nach der Einrichtung leerOpen-WebUI kann die Ollama-API nicht erreichen. Häufige Ursachen: Ollama läuft nicht, der Hostname host.docker.internal wird nicht aufgelöst, oder OLLAMA_BASE_URL zeigt auf die falsche Adresse.Prüfen ob Ollama läuft: curl http://localhost:11434. Bei Docker Compose sicherstellen, dass OLLAMA_BASE_URL=http://ollama:11434 gesetzt ist. Aus dem Container testen: docker exec open-webui curl http://host.docker.internal:11434
Erstes Admin-Konto kann nicht erstellt werden (leerer Bildschirm oder Fehler)Der Open-WebUI-Container wurde gestartet, bevor er die Datenbankinitialisierung abgeschlossen hatte.60 Sekunden warten und die Seite neu laden. Container-Logs prüfen: docker logs open-webui. Bei Datenbankmigrationsfehlern Container und Volume entfernen und neu starten.
Antworten stoppen mitten im SatzEin Proxy-Timeout (Nginx oder Cloudflare) unterbricht lang laufende Inferenzanfragen.Proxy-Lesetimeout erhöhen. Für Nginx proxy_read_timeout 300; zum Location-Block hinzufügen. Bei Cloudflare das Timeout auf mindestens 100 Sekunden setzen.
Datei-Uploads schlagen mit "nicht unterstützter Dateityp" fehlOpen-WebUI unterstützt standardmäßig PDF, DOCX, TXT und Markdown-Dateien für RAG.Nicht unterstützte Dateien vor dem Hochladen in PDF oder TXT konvertieren. CSV-Daten und Tabellendaten als Text in die Chat-Eingabe einfügen statt als Datei hochzuladen.
Langsame erste Antwort nach der ModellauswahlDas Modell wird beim ersten Einsatz von der Festplatte in den RAM geladen. Dies dauert 5-30 Sekunden je nach Modellgröße und Speichergeschwindigkeit.Diese Verzögerung tritt nur bei der ersten Nachricht nach dem Modellwechsel auf. Folgende Nachrichten in der gleichen Sitzung antworten schneller. NVMe-Speicher statt HDD verwenden, um die Modell-Ladezeit deutlich zu reduzieren.

Alternativen

ToolArtPreisIdeal für
HollamaDesktop-AppKostenlosMinimales Ollama-Frontend mit sehr einfacher Oberfläche und ohne Docker-Anforderung.
MstyDesktop-AppKostenlosmacOS-Nutzer, die eine native App statt einer browserbasierten UI wünschen.
LM StudioDesktop-AppKostenlosAll-in-One-Tool für lokale LLMs mit eigenem Modell-Runner, ohne Ollama-Anforderung.
AnythingLLMSelbstgehostet oder DesktopKostenlos (selbstgehostet)Teams, die Agent-Funktionen, Workspace-Isolierung und erweiterte RAG-Funktionen benötigen.

Häufige Fragen

Funktioniert Open-WebUI ohne Ollama?

Ja. Open-WebUI kann sich mit jedem OpenAI-kompatiblen API-Endpunkt verbinden. Um es direkt mit der OpenAI-API zu nutzen, die Umgebungsvariable OPENAI_API_KEY und OPENAI_API_BASE_URL auf https://api.openai.com/v1 setzen. Beide können auch kombiniert werden: Ollama und einen OpenAI-API-Schlüssel konfigurieren, um in derselben Oberfläche zwischen lokalen und Cloud-Modellen zu wechseln.

Ist Open-WebUI kostenlos nutzbar?

Open-WebUI ist Open Source unter der MIT-Lizenz und vollständig kostenlos selbst zu hosten. Das Docker-Image ist kostenlos zum Herunterladen und Betreiben. Es gibt eine kostenpflichtige Cloud-Version (Open-WebUI Plus), aber das Selbst-Hosting hat keine Einschränkungen, keine Limits und kein Abonnement.

Die einzigen Kosten sind Ihr Server. Open-WebUI zusammen mit Ollama auf einem Contabo Cloud VPS 10 (€5,45/Monat) zu betreiben, eignet sich gut für den Einzelnutzer-Zugriff auf lokale Modelle.

Wie füge ich einen benutzerdefinierten System-Prompt hinzu?

Einen Standard-System-Prompt in den Modelleinstellungen festlegen. Auf den Modellnamen oben im Chat-Fenster klicken, dann "Modell bearbeiten" auswählen. Im Feld "System-Prompt" beliebige Anweisungen eingeben, die das Modell bei jedem Gespräch befolgen soll.

Für gesprächsspezifische System-Prompts: ein neues Gespräch starten und auf das System-Prompt-Symbol in der Nachrichteneingabe klicken.

Können mehrere Nutzer eine Open-WebUI-Instanz gemeinsam nutzen?

Ja. Open-WebUI hat vollständige Mehrbenutzerunterstützung mit kontobasiertem Zugang. Jeder Nutzer hat eigenen Gesprächsverlauf, eigene Einstellungen und eigene hochgeladene Dokumente. Der Administrator kann Benutzerregistrierungen genehmigen oder ablehnen, rollenbasierte Berechtigungen festlegen und einschränken, auf welche Modelle jeder Nutzer zugreifen kann.

Gesprächsdaten sind zwischen Nutzern isoliert. Ein Nutzer kann den Chat-Verlauf eines anderen nicht sehen.

Wie sichere ich meine Open-WebUI-Gespräche?

Gespräche und Einstellungen sind im Docker-Volume open-webui unter /app/backend/data gespeichert. Datenverzeichnis sichern:

bash
# Datenverzeichnis auf den Host-Rechner kopieren
docker cp open-webui:/app/backend/data ./open-webui-backup

# Oder komprimiertes Archiv erstellen
docker run --rm \
  -v open-webui:/data \
  -v $(pwd):/backup \
  alpine tar czf /backup/open-webui-backup.tar.gz -C /data .

Zur Wiederherstellung das Archiv vor dem Container-Start zurück in das Docker-Volume extrahieren.

Server für dieses Projekt

Contabo (gegründet 2003 in München) bietet VPS mit unbegrenztem Traffic, vollem Root-Zugriff und Rechenzentren in Deutschland, USA, Singapur und weiteren Regionen.

Contabo Cloud VPS 10€5,45/Monat ansehen →

Affiliate-Link. Provision bei Kauf, ohne Mehrkosten für dich.

Amara, KI-Expertin bei KI Tool Entdeckung

Verfasst von

Amara

KI-Expertin bei KI Tool Entdeckung. Spezialisiert auf Self-Hosting, lokale KI-Modelle und KI-Automatisierung. Zuletzt aktualisiert: 7. April 2026

Verwandte Anleitungen

Zurück zu den Anleitungen