KI-AgentenFortgeschritten

OpenClaw mit Ollama einrichten: Lokale KI-Modelle (2026)

35 Min. Setup📖 15 Min. LesezeitVeröffentlicht: 19. März 2026
OpenClaw KI-Agent-Oberfläche verbunden mit einem lokalen Ollama-Modell in Docker

OpenClaw ist ein autonomes KI-Agenten-Framework, das innerhalb von fünf Tagen im Januar 2026 über 113.000 GitHub-Sterne sammelte. Es läuft dauerhaft auf deiner Hardware, verbindet sich mit Messaging-Apps wie WhatsApp und Telegram und führt Aufgaben über deine digitale Umgebung aus, ohne ständige Eingaben. Standardmäßig nutzt OpenClaw Cloud-KI-APIs (Claude, ChatGPT, Gemini). Diese Anleitung ersetzt diese Cloud-APIs durch Ollama und lässt OpenClaw vollständig auf lokalen Modellen laufen.

OpenClaw mit Ollama zu betreiben bedeutet null API-Kosten pro Nachricht, vollständige Datenprivatsphäre und keine Ratenbegrenzungen. Alles bleibt auf deiner Hardware oder deinem Server. Der Kompromiss: Lokale Modelle liegen bei komplexen mehrstufigen Aufgaben noch hinter GPT-4o und Claude 3.5 Sonnet. Für persönliche Automatisierung, Kalenderverwaltung und einfache Webrecherchen reicht ein lokal laufendes 7B- oder 14B-Modell jedoch vollkommen aus.

Wenn du das Docker-Setup überspringen möchtest, bietet Contabo vorinstallierte OpenClaw-VPS-Pläne ab €16,95/Monat an. OpenClaw und Ollama sind vorkonfiguriert auf einem gesicherten Cloud-Server, deine Daten bleiben auf deinem Server statt auf OpenAI- oder Anthropic-Infrastruktur, und der Server ist gegen die API-Key-Schwachstellen abgesichert, die in typischen OpenClaw-Installationen auftreten. Diese Anleitung behandelt den selbst gehosteten Docker-Weg für alle, die volle Kontrolle möchten.

Voraussetzungen

  • Einen Linux-Server oder lokalen Rechner mit Ubuntu 22.04+ (oder macOS 12+, Windows mit WSL2)
  • Docker Engine 24.x+ und Docker Compose 2.x+ installiert
  • Mindestens 16 GB RAM für 7B-8B-Modelle, 32 GB RAM für 14B-Modelle
  • 20 GB freier Speicherplatz (Ollama-Modelldateien sind je 4-8 GB)
  • Grundkenntnisse in der Linux-Kommandozeile
  • (Optional) Einen Domainnamen, wenn du OpenClaw über Webhooks externen Messaging-Diensten zugänglich machen möchtest

Wenn du das Docker-Setup überspringen möchtest, bietet Contabo vorinstallierte OpenClaw-VPS-Pläne an. OpenClaw und Ollama sind vorkonfiguriert auf einem gesicherten Cloud-Server.

Contabo Cloud VPS 30€16,95/Monat →
Inhaltsverzeichnis

Was OpenClaw macht und warum lokale Modelle sinnvoll sind

OpenClaw (früher ClawdBot, MoltBot) ist ein Open-Source-autonomer KI-Agent, der als dauerhafter Prozess auf deiner Hardware läuft. Anders als Chatbots, die auf einzelne Nachrichten reagieren, führt OpenClaw proaktiv Aufgaben über verbundene Dienste aus: Kalendertermine buchen, Nachrichten senden, das Web durchsuchen, E-Mails verwalten und Code ausführen.

Die Soul.md-Datei speichert persistente Erinnerungen, sodass OpenClaw deine Präferenzen über Sitzungen hinweg behält. Das Molthub-Registry stellt AgentSkills (Plugins) für spezifische Dienste wie Google Kalender, Notion, Slack und WhatsApp bereit.

Warum die Cloud-API durch Ollama ersetzen:

FaktorCloud-API (Claude/ChatGPT)Ollama Lokale Modelle
Kosten pro Nachricht$0,003-$0,015$0
DatenprivatsphäreDrittanbieter verarbeitet DatenBleibt auf deiner Hardware
RatenbegrenzungJa (je nach Plan)Keine
Antwortlatenz1-3 Sekunden2-8 Sekunden (hardwareabhängig)
Reasoning-QualitätHoch (GPT-4o, Claude 3.5)Mittel (Llama 3.3, Qwen 2.5)
Setup-KomplexitätGering (API-Key hinzufügen)Mittel (diese Anleitung)

Für persönliche Aufgabenautomatisierung, bei der Kosten und Privatsphäre wichtiger sind als maximale Reasoning-Leistung, ist der lokale Ollama-Weg die richtige Wahl.

ℹ️
Hinweis:OpenClaw verbindet sich mit Ollama über eine OpenAI-kompatible API-Schicht. Ollama stellt diese unter http://localhost:11434/v1 bereit, die dasselbe Anforderungsformat wie die OpenAI API akzeptiert. OpenClaw sendet Anfragen an diesen Endpunkt statt an api.openai.com.

Docker und Docker Compose installieren

OpenClaw läuft als Docker-Container. Wenn Docker bereits installiert ist, überspringe diesen Abschnitt.

Docker auf Ubuntu 22.04 installieren

bash
# Offiziellen GPG-Schlüssel und Repository von Docker hinzufügen
curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg

echo "deb [arch=$(dpkg --print-architecture) signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null

# Docker Engine und Compose-Plugin installieren
sudo apt update && sudo apt install -y docker-ce docker-ce-cli containerd.io docker-compose-plugin

Deinen Benutzer zur Docker-Gruppe hinzufügen, um Docker-Befehle ohne sudo auszuführen:

bash
sudo usermod -aG docker $USER
newgrp docker

Beide Tools überprüfen:

bash
docker --version
# Erwartet: Docker version 26.x.x oder höher

docker compose version
# Erwartet: Docker Compose version v2.x.x oder höher

Docker auf macOS installieren

Docker Desktop von docker.com/products/docker-desktop herunterladen. Nach der Installation Docker Desktop starten und im Terminal überprüfen:

bash
docker --version && docker compose version

Ollama installieren und ein Modell herunterladen

Ollama stellt die Laufzeitumgebung für lokale Modelle bereit. Installiere es auf demselben Rechner, auf dem OpenClaw laufen soll.

Ollama installieren

bash
# Linux und macOS — Ein-Befehl-Installation
curl -fsSL https://ollama.com/install.sh | sh

Die Installation überprüfen:

bash
ollama --version
# Erwartet: ollama version 0.6.x oder höher

Auf Linux startet Ollama automatisch als systemd-Dienst. Überprüfen, ob er läuft:

bash
systemctl status ollama
# Erwartet: active (running)

Ein Modell auswählen und herunterladen

OpenClaw benötigt ein Modell mit guter Anweisungsausführung und Tool-Calling-Unterstützung. Diese Modelle funktionieren zuverlässig:

ModellRAM-BedarfPull-BefehlAm besten für
Llama 3.3 8B8 GBollama pull llama3.3:8bAllgemeine Aufgaben, schnelle Antworten
Qwen 2.5 14B16 GBollama pull qwen2.5:14bBesseres Reasoning, Coding-Aufgaben
Mistral Small 22B24 GBollama pull mistral-smallKomplexe mehrstufige Aufgaben
Qwen 2.5 7B6 GBollama pull qwen2.5:7bRechner mit wenig RAM

Für die meisten Einsteiger ist Llama 3.3 8B die richtige Wahl:

bash
# Llama 3.3 8B herunterladen (4,9 GB Download)
ollama pull llama3.3:8b

# Erwartete Ausgabe:
# pulling manifest
# pulling 8eeb...  100% ████████ 4.9 GB / 4.9 GB
# success

Überprüfen, ob Ollamas API erreichbar ist (das ist der Endpunkt, den OpenClaw nutzen wird):

bash
curl http://localhost:11434/v1/models
# Erwartet: JSON-Antwort mit Liste der heruntergeladenen Modelle
Wichtig:Wenn OpenClaw in Docker läuft, kann es localhost:11434 auf deinem Host-Rechner standardmäßig nicht erreichen. Du musst die Docker-Host-IP 172.17.0.1 oder den speziellen Hostnamen host.docker.internal (macOS/Windows Docker Desktop) verwenden. Dies wird im Konfigurationsschritt behandelt.

OpenClaw klonen und Umgebungsvariablen konfigurieren

Das OpenClaw-Repository klonen und die Konfigurationsdatei erstellen.

Schritt 1: Repository klonen

bash
# OpenClaw-Repository klonen
git clone https://github.com/openclaw-ai/openclaw.git
cd openclaw

Schritt 2: Die .env-Konfigurationsdatei erstellen

OpenClaw liest alle Zugangsdaten und Einstellungen aus einer .env-Datei. Aus der bereitgestellten Vorlage erstellen:

bash
cp .env.example .env

Die Datei im Texteditor öffnen:

bash
nano .env

Schritt 3: Ollama als KI-Anbieter konfigurieren

Den KI-Anbieter-Abschnitt finden und diese Werte setzen:

bash
# KI-Anbieter-Konfiguration
# Für Ollama lokale Modelle die Basis-URL auf Ollamas OpenAI-kompatiblen Endpunkt setzen
OPENAI_BASE_URL=http://host.docker.internal:11434/v1

# API-Key kann ein beliebiger nicht-leerer String sein (Ollama ignoriert den Key)
OPENAI_API_KEY=ollama-local

# Modellnamen exakt so setzen wie beim ollama pull verwendet
OPENAI_MODEL=llama3.3:8b

# Agent-Konfiguration
AGENT_NAME=OpenClaw
SOUL_MD_PATH=./soul.md
ℹ️
Hinweis:Auf Linux können Docker-Container host.docker.internal standardmäßig nicht verwenden. Stattdessen die Docker-Bridge-Gateway-IP nutzen: ip route | grep docker0 ausführen, um sie zu finden (typischerweise 172.17.0.1), dann OPENAI_BASE_URL=http://172.17.0.1:11434/v1 setzen.

Schritt 4: Messaging-Integration konfigurieren (Optional)

Um OpenClaw mit WhatsApp oder Telegram zu verbinden, die entsprechenden Tokens hinzufügen. Diesen Abschnitt überspringen, wenn du zuerst über die lokale Weboberfläche testen möchtest:

bash
# Telegram-Bot (Bot via @BotFather erstellen, Token hier einfügen)
TELEGRAM_BOT_TOKEN=dein_telegram_bot_token_hier

# Webhook-URL (für Telegram erforderlich, muss öffentlich erreichbar sein)
WEBHOOK_URL=https://deine-domain.de

Soul.md Persistenzspeicher-Datei einrichten

Soul.md ist eine einfache Markdown-Datei, die OpenClaw beim Start liest, um Kontext und Präferenzen wiederherzustellen. Sie bleibt zwischen Sitzungen erhalten und gibt dem Agenten Kontinuität.

Eine Soul.md-Datei im OpenClaw-Projektverzeichnis erstellen:

bash
touch soul.md
nano soul.md

Präferenzen und Kontext hinzufügen. Soul.md ist reines Markdown, in natürlicher Sprache schreiben:

markdown
# Über mich

Mein Name ist [Dein Name]. Ich arbeite im Bereich [dein Fachgebiet/deine Rolle].

## Präferenzen

- Ich bevorzuge direkte und spezifische Antworten statt allgemeiner Ratschläge
- Bei Terminplanungen arbeite ich in der Zeitzone [deine Zeitzone]
- Meine Hauptsprache ist Deutsch

## Regelmäßige Aufgaben

- Wöchentliches Team-Meeting: montags um 10 Uhr
- Bevorzugter Flugzeug-Sitzplatz: Fensterplatz, Gangplatz wenn nicht verfügbar

## Wichtige Kontakte

- Hier häufig referenzierte Kontakte eintragen

## Installierte Skills

- (Installierte Molthub-Skills hier eintragen, sobald hinzugefügt)

OpenClaw ergänzt Soul.md automatisch, während es deine Präferenzen in den Agentensitzungen erlernt. Die Datei wächst organisch über die Zeit.

OpenClaw mit Docker Compose starten

Mit der fertigen Konfiguration die OpenClaw-Container starten.

Die Dienste starten

bash
# OpenClaw im Hintergrund starten
docker compose up -d

Docker lädt das OpenClaw-Image beim ersten Start herunter (ca. 800 MB). Nach dem Download:

bash
# Überprüfen, ob der Container läuft
docker compose ps

# Erwartete Ausgabe:
# NAME                  IMAGE              STATUS          PORTS
# openclaw-app-1        openclaw:latest    Up 30 seconds   0.0.0.0:3000->3000/tcp

Live-Logs prüfen, um zu bestätigen, dass die Ollama-Verbindung erfolgreich war:

bash
docker compose logs -f app

# Erwartete Ausgabezeilen (Reihenfolge kann variieren):
# [OpenClaw] Starting agent...
# [OpenClaw] Connected to LLM provider at http://host.docker.internal:11434/v1
# [OpenClaw] Model: llama3.3:8b
# [OpenClaw] Soul.md loaded (142 tokens)
# [OpenClaw] Agent ready. Listening for messages...

Auf die Weboberfläche zugreifen

Browser öffnen und http://localhost:3000 aufrufen. Das OpenClaw-Dashboard zeigt den Agentenstatus, verbundene Dienste, installierte Skills und eine Chat-Oberfläche für direkte Interaktion.

Eine Testnachricht in der Chat-Oberfläche senden:

bash
Wie spät ist es und welches Datum haben wir heute?

OpenClaw leitet dies an Ollamas llama3.3:8b-Modell weiter und gibt die Antwort über die lokale API zurück. Eine kohärente Antwort bedeutet, dass die Ollama-Verbindung funktioniert.

💡
Tipp:Die ersten Antworten dauern 3-8 Sekunden länger als nachfolgende. Ollama hält das Modell nach der ersten Inferenzanfrage im Speicher, sodass nachfolgende Antworten schneller kommen. Auf einem Rechner mit 8 GB RAM sind nach dem Aufwärmen Antwortzeiten von 2-4 Sekunden zu erwarten.

AgentSkills von Molthub installieren

AgentSkills erweitern OpenClaw um spezifische Fähigkeiten: Kalenderzugriff, Websuche, E-Mail, Notion, GitHub und mehr. Sie werden direkt über die Weboberfläche aus dem Molthub-Registry installiert.

Sicherheitshinweis vor der Skill-Installation

⚠️
Warnung:Sicherheitsforscher bei Cisco und Palo Alto Networks fanden heraus, dass 22-26% der Molthub-Einreichungen schädlichen Code enthalten, der auf API-Keys und Dateisystemzugriff abzielt. Vor der Installation eines Skills prüfen: das GitHub-Repository des Skills (Quellcode überprüfen), seine Sternanzahl und neuere Aktivität sowie Community-Bewertungen im OpenClaw-Discord. Nur Skills von verifizierten Publishern installieren, die mit einem blauen Häkchen in der Molthub-Oberfläche gekennzeichnet sind.

Einen Skill über die Weboberfläche installieren

1. Das OpenClaw-Dashboard unter http://localhost:3000 öffnen 2. Zu Skills > Molthub navigieren 3. Den Skill nach Name suchen (z.B.: "web-search") 4. Das Listing des verifizierten Publishers anklicken 5. Auf Installieren klicken — der Skill wird heruntergeladen und aktiviert, ohne den Container neu zu starten

Einen Skill über die CLI installieren

bash
# Installierte Skills auflisten
docker compose exec app openclaw skills list

# Einen Skill nach Name installieren
docker compose exec app openclaw skills install web-search

# Erwartete Ausgabe:
# Fetching web-search from molthub...
# Verifying checksum...
# Installing web-search v1.4.2...
# Skill installed successfully.

Empfohlene Starter-Skills (Verifiziert)

SkillFunktionPublisher
web-searchDurchsucht Brave oder DuckDuckGoopenclaw-official
calendar-googleLiest und schreibt Google Kalenderopenclaw-official
memory-managerVerwaltet Soul.md automatischopenclaw-official
url-readerRuft Webseiten ab und fasst sie zusammenopenclaw-official

Mit web-search und url-reader beginnen. Sie funktionieren ohne OAuth und ermöglichen das Testen der Ollama-Integration mit realen Aufgaben.

Umgebungsvariablen-Referenz

Alle OpenClaw-Konfiguration liegt in der .env-Datei. Wichtige Variablen:

VariableStandardZweck
OPENAI_BASE_URLhttps://api.openai.com/v1Mit Ollama-Endpunkt für lokale Modelle überschreiben
OPENAI_API_KEY(erforderlich)Für Ollama beliebigen nicht-leeren String setzen
OPENAI_MODELgpt-4oModellname — muss exakt der Ausgabe von ollama list entsprechen
SOUL_MD_PATH./soul.mdPfad zur Soul.md Persistenzspeicher-Datei
AGENT_NAMEOpenClawName, den der Agent zur Identifikation verwendet
TELEGRAM_BOT_TOKEN(leer)Token von @BotFather für Telegram-Integration
WEBHOOK_URL(leer)Öffentliche HTTPS-URL für eingehende Webhooks
PORT3000Port der Weboberfläche
LOG_LEVELinfoLog-Ausführlichkeit: debug, info, warn, error
MAX_CONTEXT_TOKENS8192Token-Limit pro Gesprächsrunde
SKILL_TIMEOUT_MS30000Maximale Laufzeit eines Skills (Millisekunden)

OpenClaw aktualisieren

bash
# Neuestes Image herunterladen
docker compose pull

# Mit dem neuen Image neu starten
docker compose up -d --force-recreate

# Deine .env und soul.md sind als Volume gemountet und überleben Updates

Fehlerbehebung

ProblemUrsacheLösung
Container startet, aber Logs zeigen "Connection refused" beim Erreichen von OllamaDocker-Container kann Ollama auf dem Host über localhost oder 127.0.0.1 nicht erreichenAuf Linux die Docker-Bridge-IP finden: ip route | grep docker0 (meist 172.17.0.1). OPENAI_BASE_URL=http://172.17.0.1:11434/v1 in .env setzen. Auf macOS/Windows Docker Desktop: http://host.docker.internal:11434/v1 verwenden.
Modell antwortet, ignoriert aber Tool-Calls oder gibt fehlerhaftes JSON zurückDas gewählte Modell hat schlechte Tool-Calling-UnterstützungZu einem Modell mit explizitem Function-Calling-Training wechseln. Qwen 2.5 14B und Llama 3.3 8B sind die zuverlässigsten Optionen für OpenClaw. OPENAI_MODEL in .env aktualisieren und Container neu starten.
OpenClaw antwortet sehr langsam (15+ Sekunden pro Nachricht)Modell ist zu groß für den verfügbaren RAM, was Swap-Nutzung verursachtRAM-Nutzung prüfen: htop oder free -h. Wenn Swap aktiv ist, zu einem kleineren Modell wechseln. Llama 3.3 8B benötigt 8 GB RAM, Qwen 2.5 7B 6 GB. Vermeiden, weitere Modelle zu laden, während OpenClaw läuft.
Telegram-Nachrichten erreichen OpenClaw nichtWebhook-URL nicht gesetzt oder von Telegram-Servern nicht öffentlich erreichbarTelegram benötigt eine öffentliche HTTPS-URL zum Zustellen von Nachrichten. Für Tests ngrok verwenden: ngrok http 3000, dann WEBHOOK_URL auf die ngrok-HTTPS-URL in .env setzen und neu starten.
Soul.md-Änderungen werden in den Agenten-Antworten nicht berücksichtigtOpenClaw liest Soul.md nur beim StartContainer nach dem Bearbeiten von Soul.md neu starten: docker compose restart app. Änderungen treten beim nächsten Start in Kraft.
Skill-Installation schlägt mit "checksum mismatch"-Fehler fehlNetzwerkunterbrechung während des Skill-Downloads oder beschädigtes Molthub-PaketTeilinstallation entfernen: docker compose exec app openclaw skills remove [skill-name]. Dann erneut installieren. Wenn der Fehler anhält, ist die Skill-Version möglicherweise defekt — OpenClaw-GitHub-Issues prüfen.

Alternativen

ToolArtPreisIdeal für
Emergent (Gehostetes OpenClaw)CloudKostenlos / $20/MonatNicht-technische Nutzer, die OpenClaw ohne Self-Hosting-Komplexität wollen. Übernimmt Sicherheit, Updates und API-Key-Verwaltung automatisch.
Contabo Vorinstallierter OpenClaw-VPSSelf-Hosted (verwaltetes Setup)Ab €16,95/MonatNutzer, die vollständige Server-Kontrolle und Datenprivatsphäre ohne Docker-Konfigurationsaufwand möchten. OpenClaw und Ollama sind vorinstalliert und gegen API-Key-Schwachstellen abgesichert.
n8n mit KI-KnotenSelf-HostedKostenlos self-hosted / $24/Monat CloudStrukturierte Workflow-Automatisierung mit visuellem Knoten-Editor. Besser für wiederkehrende geplante Aufgaben als OpenClaws konversationelles Agenten-Modell.
FlowiseSelf-HostedKostenlos self-hostedAufbau von LLM-gestützten Chatbots und RAG-Anwendungen mit No-Code-Drag-and-Drop-Oberfläche. Weniger agentenfokussiert als OpenClaw, aber einfacher zu konfigurieren.

Häufige Fragen

Kann OpenClaw mit Ollama auf einem Laptop laufen?

Ja. Wenn dein Laptop 16 GB RAM oder mehr hat, läuft Llama 3.3 8B problemlos neben OpenClaw. Mit 8 GB RAM ist Qwen 2.5 7B (6-GB-Modell) die bessere Wahl — es lässt genug RAM für das Betriebssystem und andere Anwendungen.

Der Kompromiss auf einem Laptop ist Lüfterlärm und Akkuverbrauch während der Inferenz. Ollama führt die Inferenz auf der CPU aus, wenn keine GPU verfügbar ist, was langsamer ist und mehr Wärme erzeugt als GPU-Inferenz. Für dauerhaften Einsatz ist ein VPS oder Desktop-Rechner praktischer als ein Laptop.

Welches Ollama-Modell funktioniert am besten mit OpenClaw?

Llama 3.3 8B ist der beste Einstiegspunkt. Es führt allgemeine Aufgabenanweisungen zuverlässig aus, passt in 8 GB RAM und Ollama lädt es in unter 10 Minuten mit einer Standardverbindung herunter.

Für bessere Leistung bei komplexen mehrstufigen Aufgaben und Coding: Qwen 2.5 14B. Es benötigt 16 GB RAM, handhabt aber Tool-Calling und strukturierten Output konsistenter.

Modelle unter 7B Parametern vermeiden. Modelle wie Phi-3 Mini (3,8B) und Gemma 2B haben Schwierigkeiten mit den strukturierten JSON-Antworten, die OpenClaws Skill-System benötigt.

Ist der lokale Betrieb von OpenClaw sicherer als die Nutzung der Cloud-API?

Für Datenprivatsphäre ja. Mit Ollama werden deine Nachrichten und Aufgaben vollständig auf deiner Hardware verarbeitet. Nichts verlässt deinen Rechner in Richtung OpenAI- oder Anthropic-Server.

Das Sicherheitsrisiko bei self-hosted OpenClaw-Setups ist ein anderes: API-Key-Exposition und schädliche Skills (Cisco fand 22-26% schädliche Molthub-Pakete). Die Nutzung von Ollama eliminiert das Cloud-API-Key-Risiko vollständig, da es keinen API-Key gibt, der gestohlen werden könnte. Skills vor der Installation weiterhin sorgfältig prüfen.

Für Nutzer, die die Privatsphäre von Self-Hosting ohne Docker- und Skill-Sicherheitsverwaltung möchten, bietet Contabos vorinstallierter OpenClaw-VPS eine abgesicherte Server-Umgebung.

Wie aktualisiere ich OpenClaw, wenn eine neue Version erscheint?

Diese drei Befehle aus dem openclaw-Projektverzeichnis ausführen:

bash
docker compose pull                    # Neues Image herunterladen
docker compose up -d --force-recreate  # Container mit neuem Image neu starten
docker compose logs app                # Bestätigen, dass neue Version gestartet ist

Deine .env-Datei und soul.md sind als Docker-Volume-Mounts außerhalb des Containers gespeichert. Sie überleben das Update. Installierte Skills müssen nach größeren Versions-Updates möglicherweise neu installiert werden — das OpenClaw-Changelog vor dem Update prüfen.

Was ist der Unterschied zwischen lokalem OpenClaw und einem VPS?

Lokal (auf Laptop oder Desktop): OpenClaw läuft nur, wenn der Rechner eingeschaltet ist. Webhook-basierte Messaging-Integrationen (Telegram, WhatsApp) verpassen Nachrichten, wenn der Rechner ausgeschaltet ist. Geeignet für manuellen, bedarfsgerechten Einsatz und Tests.

VPS: OpenClaw läuft 24/7, empfängt alle Webhook-Ereignisse auch wenn du nicht am Rechner bist, und verbraucht weder RAM noch CPU deines Laptops. Ein Contabo Cloud VPS 30 für €16,95/Monat hat 24 GB RAM — genug für OpenClaw plus Ollama mit Llama 3.3 8B oder Qwen 2.5 14B gleichzeitig.

Contabos vorinstallierter OpenClaw-VPS überspringt die Docker-Konfiguration und dient als sofort einsatzbereite 24/7-Instanz.

Kann ich OpenClaw mit WhatsApp und Ollama als Backend verbinden?

Ja. Die WhatsApp-Integration nutzt die WhatsApp Business API oder eine inoffizielle Bridge. Die Integration über die OpenClaw-Weboberfläche unter Einstellungen > Messaging > WhatsApp einrichten.

WhatsApp benötigt eine öffentlich erreichbare HTTPS-Webhook-URL, was bedeutet, dass deine OpenClaw-Instanz vom Internet aus erreichbar sein muss. Auf einem lokalen Rechner ngrok-Tunnel für Tests verwenden. Auf einem VPS mit Domain Nginx als Reverse Proxy mit Let's-Encrypt-SSL-Zertifikat konfigurieren.

Das Ollama-Modell übernimmt das gesamte Message-Reasoning unabhängig davon, über welche Messaging-Plattform die Nachricht zugestellt wird.

Was kostet OpenClaw mit Ollama im Vergleich zu Cloud-APIs?

Mit Ollama sind die Kosten pro Nachricht null. Du zahlst nur für die Hardware, auf der Ollama läuft. Auf einem Contabo Cloud VPS 30 für €16,95/Monat erhältst du 24/7 OpenClaw- und Ollama-Zugriff für eine feste monatliche Gebühr, unabhängig von der Anzahl gesendeter Nachrichten.

Mit Cloud-APIs variieren die Kosten nach Modell und Nutzung. GPT-4o berechnet etwa $0,005 pro 1.000 Eingabe-Tokens und $0,015 pro 1.000 Ausgabe-Tokens. Ein aktiver OpenClaw-Nutzer, der 200 Nachrichten pro Tag sendet, durchschnittlich 500 Tokens in jede Richtung pro Interaktion, kommt auf ungefähr $3-$9/Tag oder $90-$270/Monat allein an API-Kosten.

Für Nutzer, die mehr als 500 Nachrichten pro Monat über OpenClaw senden, wird der lokale Ollama-Weg günstiger als Cloud-APIs, selbst unter Berücksichtigung der VPS-Kosten.

Server für dieses Projekt

Contabo (gegründet 2003 in München) bietet VPS mit unbegrenztem Traffic, vollem Root-Zugriff und Rechenzentren in Deutschland, USA, Singapur und weiteren Regionen.

Contabo Cloud VPS 30€16,95/Monat ansehen →

Affiliate-Link. Provision bei Kauf, ohne Mehrkosten für dich.

Verwandte Anleitungen

Zurück zu den Anleitungen