OpenClaw mit Ollama einrichten: Lokale KI-Modelle (2026)

OpenClaw ist ein autonomes KI-Agenten-Framework, das innerhalb von fünf Tagen im Januar 2026 über 113.000 GitHub-Sterne sammelte. Es läuft dauerhaft auf deiner Hardware, verbindet sich mit Messaging-Apps wie WhatsApp und Telegram und führt Aufgaben über deine digitale Umgebung aus, ohne ständige Eingaben. Standardmäßig nutzt OpenClaw Cloud-KI-APIs (Claude, ChatGPT, Gemini). Diese Anleitung ersetzt diese Cloud-APIs durch Ollama und lässt OpenClaw vollständig auf lokalen Modellen laufen.
OpenClaw mit Ollama zu betreiben bedeutet null API-Kosten pro Nachricht, vollständige Datenprivatsphäre und keine Ratenbegrenzungen. Alles bleibt auf deiner Hardware oder deinem Server. Der Kompromiss: Lokale Modelle liegen bei komplexen mehrstufigen Aufgaben noch hinter GPT-4o und Claude 3.5 Sonnet. Für persönliche Automatisierung, Kalenderverwaltung und einfache Webrecherchen reicht ein lokal laufendes 7B- oder 14B-Modell jedoch vollkommen aus.
Wenn du das Docker-Setup überspringen möchtest, bietet Contabo vorinstallierte OpenClaw-VPS-Pläne ab €16,95/Monat an. OpenClaw und Ollama sind vorkonfiguriert auf einem gesicherten Cloud-Server, deine Daten bleiben auf deinem Server statt auf OpenAI- oder Anthropic-Infrastruktur, und der Server ist gegen die API-Key-Schwachstellen abgesichert, die in typischen OpenClaw-Installationen auftreten. Diese Anleitung behandelt den selbst gehosteten Docker-Weg für alle, die volle Kontrolle möchten.
Voraussetzungen
- Einen Linux-Server oder lokalen Rechner mit Ubuntu 22.04+ (oder macOS 12+, Windows mit WSL2)
- Docker Engine 24.x+ und Docker Compose 2.x+ installiert
- Mindestens 16 GB RAM für 7B-8B-Modelle, 32 GB RAM für 14B-Modelle
- 20 GB freier Speicherplatz (Ollama-Modelldateien sind je 4-8 GB)
- Grundkenntnisse in der Linux-Kommandozeile
- (Optional) Einen Domainnamen, wenn du OpenClaw über Webhooks externen Messaging-Diensten zugänglich machen möchtest
Wenn du das Docker-Setup überspringen möchtest, bietet Contabo vorinstallierte OpenClaw-VPS-Pläne an. OpenClaw und Ollama sind vorkonfiguriert auf einem gesicherten Cloud-Server.
Contabo Cloud VPS 30 — €16,95/Monat →Inhaltsverzeichnis
Was OpenClaw macht und warum lokale Modelle sinnvoll sind
OpenClaw (früher ClawdBot, MoltBot) ist ein Open-Source-autonomer KI-Agent, der als dauerhafter Prozess auf deiner Hardware läuft. Anders als Chatbots, die auf einzelne Nachrichten reagieren, führt OpenClaw proaktiv Aufgaben über verbundene Dienste aus: Kalendertermine buchen, Nachrichten senden, das Web durchsuchen, E-Mails verwalten und Code ausführen.
Die Soul.md-Datei speichert persistente Erinnerungen, sodass OpenClaw deine Präferenzen über Sitzungen hinweg behält. Das Molthub-Registry stellt AgentSkills (Plugins) für spezifische Dienste wie Google Kalender, Notion, Slack und WhatsApp bereit.
Warum die Cloud-API durch Ollama ersetzen:
| Faktor | Cloud-API (Claude/ChatGPT) | Ollama Lokale Modelle |
|---|---|---|
| Kosten pro Nachricht | $0,003-$0,015 | $0 |
| Datenprivatsphäre | Drittanbieter verarbeitet Daten | Bleibt auf deiner Hardware |
| Ratenbegrenzung | Ja (je nach Plan) | Keine |
| Antwortlatenz | 1-3 Sekunden | 2-8 Sekunden (hardwareabhängig) |
| Reasoning-Qualität | Hoch (GPT-4o, Claude 3.5) | Mittel (Llama 3.3, Qwen 2.5) |
| Setup-Komplexität | Gering (API-Key hinzufügen) | Mittel (diese Anleitung) |
Für persönliche Aufgabenautomatisierung, bei der Kosten und Privatsphäre wichtiger sind als maximale Reasoning-Leistung, ist der lokale Ollama-Weg die richtige Wahl.
http://localhost:11434/v1 bereit, die dasselbe Anforderungsformat wie die OpenAI API akzeptiert. OpenClaw sendet Anfragen an diesen Endpunkt statt an api.openai.com.Docker und Docker Compose installieren
OpenClaw läuft als Docker-Container. Wenn Docker bereits installiert ist, überspringe diesen Abschnitt.
Docker auf Ubuntu 22.04 installieren
# Offiziellen GPG-Schlüssel und Repository von Docker hinzufügen
curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg
echo "deb [arch=$(dpkg --print-architecture) signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
# Docker Engine und Compose-Plugin installieren
sudo apt update && sudo apt install -y docker-ce docker-ce-cli containerd.io docker-compose-pluginDeinen Benutzer zur Docker-Gruppe hinzufügen, um Docker-Befehle ohne sudo auszuführen:
sudo usermod -aG docker $USER
newgrp dockerBeide Tools überprüfen:
docker --version
# Erwartet: Docker version 26.x.x oder höher
docker compose version
# Erwartet: Docker Compose version v2.x.x oder höherDocker auf macOS installieren
Docker Desktop von docker.com/products/docker-desktop herunterladen. Nach der Installation Docker Desktop starten und im Terminal überprüfen:
docker --version && docker compose versionOllama installieren und ein Modell herunterladen
Ollama stellt die Laufzeitumgebung für lokale Modelle bereit. Installiere es auf demselben Rechner, auf dem OpenClaw laufen soll.
Ollama installieren
# Linux und macOS — Ein-Befehl-Installation
curl -fsSL https://ollama.com/install.sh | shDie Installation überprüfen:
ollama --version
# Erwartet: ollama version 0.6.x oder höherAuf Linux startet Ollama automatisch als systemd-Dienst. Überprüfen, ob er läuft:
systemctl status ollama
# Erwartet: active (running)Ein Modell auswählen und herunterladen
OpenClaw benötigt ein Modell mit guter Anweisungsausführung und Tool-Calling-Unterstützung. Diese Modelle funktionieren zuverlässig:
| Modell | RAM-Bedarf | Pull-Befehl | Am besten für |
|---|---|---|---|
| Llama 3.3 8B | 8 GB | ollama pull llama3.3:8b | Allgemeine Aufgaben, schnelle Antworten |
| Qwen 2.5 14B | 16 GB | ollama pull qwen2.5:14b | Besseres Reasoning, Coding-Aufgaben |
| Mistral Small 22B | 24 GB | ollama pull mistral-small | Komplexe mehrstufige Aufgaben |
| Qwen 2.5 7B | 6 GB | ollama pull qwen2.5:7b | Rechner mit wenig RAM |
Für die meisten Einsteiger ist Llama 3.3 8B die richtige Wahl:
# Llama 3.3 8B herunterladen (4,9 GB Download)
ollama pull llama3.3:8b
# Erwartete Ausgabe:
# pulling manifest
# pulling 8eeb... 100% ████████ 4.9 GB / 4.9 GB
# successÜberprüfen, ob Ollamas API erreichbar ist (das ist der Endpunkt, den OpenClaw nutzen wird):
curl http://localhost:11434/v1/models
# Erwartet: JSON-Antwort mit Liste der heruntergeladenen Modellelocalhost:11434 auf deinem Host-Rechner standardmäßig nicht erreichen. Du musst die Docker-Host-IP 172.17.0.1 oder den speziellen Hostnamen host.docker.internal (macOS/Windows Docker Desktop) verwenden. Dies wird im Konfigurationsschritt behandelt.OpenClaw klonen und Umgebungsvariablen konfigurieren
Das OpenClaw-Repository klonen und die Konfigurationsdatei erstellen.
Schritt 1: Repository klonen
# OpenClaw-Repository klonen
git clone https://github.com/openclaw-ai/openclaw.git
cd openclawSchritt 2: Die .env-Konfigurationsdatei erstellen
OpenClaw liest alle Zugangsdaten und Einstellungen aus einer .env-Datei. Aus der bereitgestellten Vorlage erstellen:
cp .env.example .envDie Datei im Texteditor öffnen:
nano .envSchritt 3: Ollama als KI-Anbieter konfigurieren
Den KI-Anbieter-Abschnitt finden und diese Werte setzen:
# KI-Anbieter-Konfiguration
# Für Ollama lokale Modelle die Basis-URL auf Ollamas OpenAI-kompatiblen Endpunkt setzen
OPENAI_BASE_URL=http://host.docker.internal:11434/v1
# API-Key kann ein beliebiger nicht-leerer String sein (Ollama ignoriert den Key)
OPENAI_API_KEY=ollama-local
# Modellnamen exakt so setzen wie beim ollama pull verwendet
OPENAI_MODEL=llama3.3:8b
# Agent-Konfiguration
AGENT_NAME=OpenClaw
SOUL_MD_PATH=./soul.mdhost.docker.internal standardmäßig nicht verwenden. Stattdessen die Docker-Bridge-Gateway-IP nutzen: ip route | grep docker0 ausführen, um sie zu finden (typischerweise 172.17.0.1), dann OPENAI_BASE_URL=http://172.17.0.1:11434/v1 setzen.Schritt 4: Messaging-Integration konfigurieren (Optional)
Um OpenClaw mit WhatsApp oder Telegram zu verbinden, die entsprechenden Tokens hinzufügen. Diesen Abschnitt überspringen, wenn du zuerst über die lokale Weboberfläche testen möchtest:
# Telegram-Bot (Bot via @BotFather erstellen, Token hier einfügen)
TELEGRAM_BOT_TOKEN=dein_telegram_bot_token_hier
# Webhook-URL (für Telegram erforderlich, muss öffentlich erreichbar sein)
WEBHOOK_URL=https://deine-domain.deSoul.md Persistenzspeicher-Datei einrichten
Soul.md ist eine einfache Markdown-Datei, die OpenClaw beim Start liest, um Kontext und Präferenzen wiederherzustellen. Sie bleibt zwischen Sitzungen erhalten und gibt dem Agenten Kontinuität.
Eine Soul.md-Datei im OpenClaw-Projektverzeichnis erstellen:
touch soul.md
nano soul.mdPräferenzen und Kontext hinzufügen. Soul.md ist reines Markdown, in natürlicher Sprache schreiben:
# Über mich
Mein Name ist [Dein Name]. Ich arbeite im Bereich [dein Fachgebiet/deine Rolle].
## Präferenzen
- Ich bevorzuge direkte und spezifische Antworten statt allgemeiner Ratschläge
- Bei Terminplanungen arbeite ich in der Zeitzone [deine Zeitzone]
- Meine Hauptsprache ist Deutsch
## Regelmäßige Aufgaben
- Wöchentliches Team-Meeting: montags um 10 Uhr
- Bevorzugter Flugzeug-Sitzplatz: Fensterplatz, Gangplatz wenn nicht verfügbar
## Wichtige Kontakte
- Hier häufig referenzierte Kontakte eintragen
## Installierte Skills
- (Installierte Molthub-Skills hier eintragen, sobald hinzugefügt)OpenClaw ergänzt Soul.md automatisch, während es deine Präferenzen in den Agentensitzungen erlernt. Die Datei wächst organisch über die Zeit.
OpenClaw mit Docker Compose starten
Mit der fertigen Konfiguration die OpenClaw-Container starten.
Die Dienste starten
# OpenClaw im Hintergrund starten
docker compose up -dDocker lädt das OpenClaw-Image beim ersten Start herunter (ca. 800 MB). Nach dem Download:
# Überprüfen, ob der Container läuft
docker compose ps
# Erwartete Ausgabe:
# NAME IMAGE STATUS PORTS
# openclaw-app-1 openclaw:latest Up 30 seconds 0.0.0.0:3000->3000/tcpLive-Logs prüfen, um zu bestätigen, dass die Ollama-Verbindung erfolgreich war:
docker compose logs -f app
# Erwartete Ausgabezeilen (Reihenfolge kann variieren):
# [OpenClaw] Starting agent...
# [OpenClaw] Connected to LLM provider at http://host.docker.internal:11434/v1
# [OpenClaw] Model: llama3.3:8b
# [OpenClaw] Soul.md loaded (142 tokens)
# [OpenClaw] Agent ready. Listening for messages...Auf die Weboberfläche zugreifen
Browser öffnen und http://localhost:3000 aufrufen. Das OpenClaw-Dashboard zeigt den Agentenstatus, verbundene Dienste, installierte Skills und eine Chat-Oberfläche für direkte Interaktion.
Eine Testnachricht in der Chat-Oberfläche senden:
Wie spät ist es und welches Datum haben wir heute?OpenClaw leitet dies an Ollamas llama3.3:8b-Modell weiter und gibt die Antwort über die lokale API zurück. Eine kohärente Antwort bedeutet, dass die Ollama-Verbindung funktioniert.
AgentSkills von Molthub installieren
AgentSkills erweitern OpenClaw um spezifische Fähigkeiten: Kalenderzugriff, Websuche, E-Mail, Notion, GitHub und mehr. Sie werden direkt über die Weboberfläche aus dem Molthub-Registry installiert.
Sicherheitshinweis vor der Skill-Installation
Einen Skill über die Weboberfläche installieren
1. Das OpenClaw-Dashboard unter http://localhost:3000 öffnen 2. Zu Skills > Molthub navigieren 3. Den Skill nach Name suchen (z.B.: "web-search") 4. Das Listing des verifizierten Publishers anklicken 5. Auf Installieren klicken — der Skill wird heruntergeladen und aktiviert, ohne den Container neu zu starten
Einen Skill über die CLI installieren
# Installierte Skills auflisten
docker compose exec app openclaw skills list
# Einen Skill nach Name installieren
docker compose exec app openclaw skills install web-search
# Erwartete Ausgabe:
# Fetching web-search from molthub...
# Verifying checksum...
# Installing web-search v1.4.2...
# Skill installed successfully.Empfohlene Starter-Skills (Verifiziert)
| Skill | Funktion | Publisher |
|---|---|---|
| web-search | Durchsucht Brave oder DuckDuckGo | openclaw-official |
| calendar-google | Liest und schreibt Google Kalender | openclaw-official |
| memory-manager | Verwaltet Soul.md automatisch | openclaw-official |
| url-reader | Ruft Webseiten ab und fasst sie zusammen | openclaw-official |
Mit web-search und url-reader beginnen. Sie funktionieren ohne OAuth und ermöglichen das Testen der Ollama-Integration mit realen Aufgaben.
Umgebungsvariablen-Referenz
Alle OpenClaw-Konfiguration liegt in der .env-Datei. Wichtige Variablen:
| Variable | Standard | Zweck |
|---|---|---|
OPENAI_BASE_URL | https://api.openai.com/v1 | Mit Ollama-Endpunkt für lokale Modelle überschreiben |
OPENAI_API_KEY | (erforderlich) | Für Ollama beliebigen nicht-leeren String setzen |
OPENAI_MODEL | gpt-4o | Modellname — muss exakt der Ausgabe von ollama list entsprechen |
SOUL_MD_PATH | ./soul.md | Pfad zur Soul.md Persistenzspeicher-Datei |
AGENT_NAME | OpenClaw | Name, den der Agent zur Identifikation verwendet |
TELEGRAM_BOT_TOKEN | (leer) | Token von @BotFather für Telegram-Integration |
WEBHOOK_URL | (leer) | Öffentliche HTTPS-URL für eingehende Webhooks |
PORT | 3000 | Port der Weboberfläche |
LOG_LEVEL | info | Log-Ausführlichkeit: debug, info, warn, error |
MAX_CONTEXT_TOKENS | 8192 | Token-Limit pro Gesprächsrunde |
SKILL_TIMEOUT_MS | 30000 | Maximale Laufzeit eines Skills (Millisekunden) |
OpenClaw aktualisieren
# Neuestes Image herunterladen
docker compose pull
# Mit dem neuen Image neu starten
docker compose up -d --force-recreate
# Deine .env und soul.md sind als Volume gemountet und überleben UpdatesFehlerbehebung
| Problem | Ursache | Lösung |
|---|---|---|
| Container startet, aber Logs zeigen "Connection refused" beim Erreichen von Ollama | Docker-Container kann Ollama auf dem Host über localhost oder 127.0.0.1 nicht erreichen | Auf Linux die Docker-Bridge-IP finden: ip route | grep docker0 (meist 172.17.0.1). OPENAI_BASE_URL=http://172.17.0.1:11434/v1 in .env setzen. Auf macOS/Windows Docker Desktop: http://host.docker.internal:11434/v1 verwenden. |
| Modell antwortet, ignoriert aber Tool-Calls oder gibt fehlerhaftes JSON zurück | Das gewählte Modell hat schlechte Tool-Calling-Unterstützung | Zu einem Modell mit explizitem Function-Calling-Training wechseln. Qwen 2.5 14B und Llama 3.3 8B sind die zuverlässigsten Optionen für OpenClaw. OPENAI_MODEL in .env aktualisieren und Container neu starten. |
| OpenClaw antwortet sehr langsam (15+ Sekunden pro Nachricht) | Modell ist zu groß für den verfügbaren RAM, was Swap-Nutzung verursacht | RAM-Nutzung prüfen: htop oder free -h. Wenn Swap aktiv ist, zu einem kleineren Modell wechseln. Llama 3.3 8B benötigt 8 GB RAM, Qwen 2.5 7B 6 GB. Vermeiden, weitere Modelle zu laden, während OpenClaw läuft. |
| Telegram-Nachrichten erreichen OpenClaw nicht | Webhook-URL nicht gesetzt oder von Telegram-Servern nicht öffentlich erreichbar | Telegram benötigt eine öffentliche HTTPS-URL zum Zustellen von Nachrichten. Für Tests ngrok verwenden: ngrok http 3000, dann WEBHOOK_URL auf die ngrok-HTTPS-URL in .env setzen und neu starten. |
| Soul.md-Änderungen werden in den Agenten-Antworten nicht berücksichtigt | OpenClaw liest Soul.md nur beim Start | Container nach dem Bearbeiten von Soul.md neu starten: docker compose restart app. Änderungen treten beim nächsten Start in Kraft. |
| Skill-Installation schlägt mit "checksum mismatch"-Fehler fehl | Netzwerkunterbrechung während des Skill-Downloads oder beschädigtes Molthub-Paket | Teilinstallation entfernen: docker compose exec app openclaw skills remove [skill-name]. Dann erneut installieren. Wenn der Fehler anhält, ist die Skill-Version möglicherweise defekt — OpenClaw-GitHub-Issues prüfen. |
Alternativen
| Tool | Art | Preis | Ideal für |
|---|---|---|---|
| Emergent (Gehostetes OpenClaw) | Cloud | Kostenlos / $20/Monat | Nicht-technische Nutzer, die OpenClaw ohne Self-Hosting-Komplexität wollen. Übernimmt Sicherheit, Updates und API-Key-Verwaltung automatisch. |
| Contabo Vorinstallierter OpenClaw-VPS | Self-Hosted (verwaltetes Setup) | Ab €16,95/Monat | Nutzer, die vollständige Server-Kontrolle und Datenprivatsphäre ohne Docker-Konfigurationsaufwand möchten. OpenClaw und Ollama sind vorinstalliert und gegen API-Key-Schwachstellen abgesichert. |
| n8n mit KI-Knoten | Self-Hosted | Kostenlos self-hosted / $24/Monat Cloud | Strukturierte Workflow-Automatisierung mit visuellem Knoten-Editor. Besser für wiederkehrende geplante Aufgaben als OpenClaws konversationelles Agenten-Modell. |
| Flowise | Self-Hosted | Kostenlos self-hosted | Aufbau von LLM-gestützten Chatbots und RAG-Anwendungen mit No-Code-Drag-and-Drop-Oberfläche. Weniger agentenfokussiert als OpenClaw, aber einfacher zu konfigurieren. |
Häufige Fragen
Kann OpenClaw mit Ollama auf einem Laptop laufen?
Ja. Wenn dein Laptop 16 GB RAM oder mehr hat, läuft Llama 3.3 8B problemlos neben OpenClaw. Mit 8 GB RAM ist Qwen 2.5 7B (6-GB-Modell) die bessere Wahl — es lässt genug RAM für das Betriebssystem und andere Anwendungen.
Der Kompromiss auf einem Laptop ist Lüfterlärm und Akkuverbrauch während der Inferenz. Ollama führt die Inferenz auf der CPU aus, wenn keine GPU verfügbar ist, was langsamer ist und mehr Wärme erzeugt als GPU-Inferenz. Für dauerhaften Einsatz ist ein VPS oder Desktop-Rechner praktischer als ein Laptop.
Welches Ollama-Modell funktioniert am besten mit OpenClaw?
Llama 3.3 8B ist der beste Einstiegspunkt. Es führt allgemeine Aufgabenanweisungen zuverlässig aus, passt in 8 GB RAM und Ollama lädt es in unter 10 Minuten mit einer Standardverbindung herunter.
Für bessere Leistung bei komplexen mehrstufigen Aufgaben und Coding: Qwen 2.5 14B. Es benötigt 16 GB RAM, handhabt aber Tool-Calling und strukturierten Output konsistenter.
Modelle unter 7B Parametern vermeiden. Modelle wie Phi-3 Mini (3,8B) und Gemma 2B haben Schwierigkeiten mit den strukturierten JSON-Antworten, die OpenClaws Skill-System benötigt.
Ist der lokale Betrieb von OpenClaw sicherer als die Nutzung der Cloud-API?
Für Datenprivatsphäre ja. Mit Ollama werden deine Nachrichten und Aufgaben vollständig auf deiner Hardware verarbeitet. Nichts verlässt deinen Rechner in Richtung OpenAI- oder Anthropic-Server.
Das Sicherheitsrisiko bei self-hosted OpenClaw-Setups ist ein anderes: API-Key-Exposition und schädliche Skills (Cisco fand 22-26% schädliche Molthub-Pakete). Die Nutzung von Ollama eliminiert das Cloud-API-Key-Risiko vollständig, da es keinen API-Key gibt, der gestohlen werden könnte. Skills vor der Installation weiterhin sorgfältig prüfen.
Für Nutzer, die die Privatsphäre von Self-Hosting ohne Docker- und Skill-Sicherheitsverwaltung möchten, bietet Contabos vorinstallierter OpenClaw-VPS eine abgesicherte Server-Umgebung.
Wie aktualisiere ich OpenClaw, wenn eine neue Version erscheint?
Diese drei Befehle aus dem openclaw-Projektverzeichnis ausführen:
docker compose pull # Neues Image herunterladen
docker compose up -d --force-recreate # Container mit neuem Image neu starten
docker compose logs app # Bestätigen, dass neue Version gestartet istDeine .env-Datei und soul.md sind als Docker-Volume-Mounts außerhalb des Containers gespeichert. Sie überleben das Update. Installierte Skills müssen nach größeren Versions-Updates möglicherweise neu installiert werden — das OpenClaw-Changelog vor dem Update prüfen.
Was ist der Unterschied zwischen lokalem OpenClaw und einem VPS?
Lokal (auf Laptop oder Desktop): OpenClaw läuft nur, wenn der Rechner eingeschaltet ist. Webhook-basierte Messaging-Integrationen (Telegram, WhatsApp) verpassen Nachrichten, wenn der Rechner ausgeschaltet ist. Geeignet für manuellen, bedarfsgerechten Einsatz und Tests.
VPS: OpenClaw läuft 24/7, empfängt alle Webhook-Ereignisse auch wenn du nicht am Rechner bist, und verbraucht weder RAM noch CPU deines Laptops. Ein Contabo Cloud VPS 30 für €16,95/Monat hat 24 GB RAM — genug für OpenClaw plus Ollama mit Llama 3.3 8B oder Qwen 2.5 14B gleichzeitig.
Contabos vorinstallierter OpenClaw-VPS überspringt die Docker-Konfiguration und dient als sofort einsatzbereite 24/7-Instanz.
Kann ich OpenClaw mit WhatsApp und Ollama als Backend verbinden?
Ja. Die WhatsApp-Integration nutzt die WhatsApp Business API oder eine inoffizielle Bridge. Die Integration über die OpenClaw-Weboberfläche unter Einstellungen > Messaging > WhatsApp einrichten.
WhatsApp benötigt eine öffentlich erreichbare HTTPS-Webhook-URL, was bedeutet, dass deine OpenClaw-Instanz vom Internet aus erreichbar sein muss. Auf einem lokalen Rechner ngrok-Tunnel für Tests verwenden. Auf einem VPS mit Domain Nginx als Reverse Proxy mit Let's-Encrypt-SSL-Zertifikat konfigurieren.
Das Ollama-Modell übernimmt das gesamte Message-Reasoning unabhängig davon, über welche Messaging-Plattform die Nachricht zugestellt wird.
Was kostet OpenClaw mit Ollama im Vergleich zu Cloud-APIs?
Mit Ollama sind die Kosten pro Nachricht null. Du zahlst nur für die Hardware, auf der Ollama läuft. Auf einem Contabo Cloud VPS 30 für €16,95/Monat erhältst du 24/7 OpenClaw- und Ollama-Zugriff für eine feste monatliche Gebühr, unabhängig von der Anzahl gesendeter Nachrichten.
Mit Cloud-APIs variieren die Kosten nach Modell und Nutzung. GPT-4o berechnet etwa $0,005 pro 1.000 Eingabe-Tokens und $0,015 pro 1.000 Ausgabe-Tokens. Ein aktiver OpenClaw-Nutzer, der 200 Nachrichten pro Tag sendet, durchschnittlich 500 Tokens in jede Richtung pro Interaktion, kommt auf ungefähr $3-$9/Tag oder $90-$270/Monat allein an API-Kosten.
Für Nutzer, die mehr als 500 Nachrichten pro Monat über OpenClaw senden, wird der lokale Ollama-Weg günstiger als Cloud-APIs, selbst unter Berücksichtigung der VPS-Kosten.
Server für dieses Projekt
Contabo (gegründet 2003 in München) bietet VPS mit unbegrenztem Traffic, vollem Root-Zugriff und Rechenzentren in Deutschland, USA, Singapur und weiteren Regionen.
Contabo Cloud VPS 30 — €16,95/Monat ansehen →Affiliate-Link. Provision bei Kauf, ohne Mehrkosten für dich.