KI-AgentenFortgeschritten

KI-Agent mit n8n erstellen: Schritt-für-Schritt-Anleitung (2026)

40 Min. Setup📖 16 Min. LesezeitVeröffentlicht: 7. April 2026
n8n-Workflow-Canvas mit Chat-Auslöser verbunden mit einem KI-Agent-Knoten und SerpAPI-, HTTP-Request- und Rechner-Tools darunter

Der KI-Agent-Knoten in n8n, eingeführt in n8n 1.19.0 (August 2024), ermöglicht den Aufbau autonomer Agenten, die über Eingaben nachdenken, Tools auswählen, externe APIs aufrufen und eine Aufgabe bis zur Fertigstellung abarbeiten. Anders als ein einfacher LLM-Knoten, der einmal eine Eingabe entgegennimmt und eine Ausgabe zurückgibt, erhält der KI-Agent-Knoten vom Modell eine Liste von Tools und lässt es selbst entscheiden, welche in welcher Reihenfolge aufgerufen werden sollen.

Diese Anleitung baut drei schrittweise komplexere KI-Agenten: einen Rechercheagenten, der das Web durchsucht und Ergebnisse zusammenfasst, einen Datenverarbeitungsagenten, der Tabellenzeilen liest und kategorisiert, sowie einen Kundensupport-Agenten mit Gedächtnis für mehrstufige Gespräche. Jedes Beispiel ist ein vollständiger n8n-Workflow, den Sie importieren und anpassen können.

Für das LLM-Backend werden sowohl OpenAI (GPT-4o) als auch lokale Ollama-Modelle erläutert. Wenn Sie n8n auf einem selbstgehosteten Server betreiben möchten, bietet Contabo vorinstallierte n8n-VPS-Pläne ab €4,50/Monat an, bei denen n8n sofort einsatzbereit ist.

Voraussetzungen

  • n8n 1.19.0 oder höher (selbstgehostet oder n8n Cloud)
  • OpenAI API-Schlüssel (für GPT-4o) oder Ollama mit gezogenem Modell
  • Grundkenntnisse in n8n: Workflows erstellen und Knoten hinzufügen
  • Freies n8n-Konto oder selbstgehostete Instanz im Browser erreichbar

Wenn du die manuelle Installation überspringen möchtest, bietet Contabo vorinstallierte n8n-VPS-Pläne an, wo n8n innerhalb von Minuten nach der Bestellung einsatzbereit ist.

Contabo Cloud VPS 10€5,45/Monat →
Inhaltsverzeichnis

Unterschied zwischen KI-Agent-Knoten und Standard-LLM-Knoten

n8n hat zwei separate Knoten für KI-Arbeit: den Basic LLM Chain-Knoten und den KI-Agent-Knoten. Das Verständnis des Unterschieds entscheidet darüber, welchen man einsetzt.

Basic LLM Chain-Knoten:

  • Nimmt Eingabe entgegen, sendet sie an ein LLM, gibt die Antwort zurück
  • Einmaliger Austausch: ein Prompt hinein, eine Antwort heraus
  • Keine Tool-Nutzung, keine Iteration, keine Entscheidungsfindung
  • Verwendung für: Texttransformation, Zusammenfassung, Klassifizierung, Inhaltsgenerierung

KI-Agent-Knoten:

  • Gibt dem LLM eine Liste von Tools und eine Aufgabenbeschreibung
  • Das LLM entscheidet, welche Tools in welcher Reihenfolge aufgerufen werden
  • Iteriert intern, bis die Aufgabe abgeschlossen ist oder das Schritt-Limit erreicht wurde
  • Verwendung für: Rechercheaufgaben, mehrstufige Datenverarbeitung, Support-Bots, autonome Workflows

Der KI-Agent-Knoten verwendet intern das ReAct-Framework (Reasoning and Acting). Das Modell erzeugt einen Gedanken, wählt eine Aktion (ein Tool), beobachtet das Ergebnis und wiederholt dies, bis es genug Informationen für eine abschließende Antwort hat.

bash
[Gedanke] Ich muss den aktuellen Preis dieses Produkts suchen.
[Aktion] web_search("Produktname Preis 2026")
[Beobachtung] Suche lieferte 3 Ergebnisse mit Preisdaten...
[Gedanke] Ich habe genug Daten. Ich kann jetzt zusammenfassen.
[Abschließende Antwort] Laut den Suchergebnissen beträgt der aktuelle Preis...

Diese Schleife läuft innerhalb des KI-Agent-Knotens ab. Sie müssen die Schleife in n8n nicht manuell verdrahten.

Wann welchen Knoten verwenden

SzenarioVerwenden
Dokument zusammenfassenBasic LLM Chain
E-Mail als Spam/kein Spam klassifizierenBasic LLM Chain
Web durchsuchen, zusammenfassen, in Airtable speichernKI-Agent
Kundenfragen mit Zugriff auf Wissensdatenbank beantwortenKI-Agent
Tabellenzeilen lesen und je Zeile nächste Aktion entscheidenKI-Agent
Produktbeschreibung aus einem Namen generierenBasic LLM Chain

LLM-Zugangsdaten einrichten

Option A: OpenAI (GPT-4o)

1. In n8n zu Einstellungen > Zugangsdaten > Neue Zugangsdaten gehen 2. Nach "OpenAI" suchen 3. OpenAI API-Schlüssel einfügen 4. Als "OpenAI-Konto" benennen und speichern

GPT-4o ist das empfohlene Modell für komplexe Agenten: starke Tool-Calling-Leistung und gutes mehrstufiges Denkvermögen.

Option B: Ollama (Lokale Modelle)

Wenn Sie lokale Inferenz ohne API-Kosten bevorzugen, unterstützt n8n Ollama über den Zugangsdatentyp "Ollama".

1. In n8n unter Einstellungen > Zugangsdaten > Neue Zugangsdaten nach "Ollama" suchen 2. Die Basis-URL auf Ihren Ollama-Endpunkt setzen: - Lokale n8n-Instanz: http://localhost:11434 - n8n in Docker auf demselben Rechner wie Ollama: http://host.docker.internal:11434 - n8n auf einem anderen Server: http://[ihre-ollama-server-ip]:11434 3. Zugangsdaten speichern

ℹ️
Hinweis:Für Agent-Workflows benötigen Ollama-Modelle zuverlässige Tool-Calling-Unterstützung. Verwenden Sie llama3.3:8b oder qwen2.5:14b. Kleinere Modelle (unter 7B Parameter) produzieren oft kein gültiges Tool-Call-JSON und unterbrechen die Agentenschleife.

Verbindung prüfen

Einen temporären Workflow mit einem einzelnen "OpenAI"- oder "Ollama"-Knoten erstellen, einen einfachen Prompt senden ("Sag Hallo") und bestätigen, dass eine Antwort empfangen wird. Den Test-Workflow nach Bestätigung löschen.

Agent 1: Web-Rechercheagent

Dieser Agent nimmt ein Thema entgegen, durchsucht das Web und gibt eine strukturierte Zusammenfassung mit Quellen zurück. Er verwendet zwei Tools: ein Websuch-Tool und einen Webseitenleser.

Schritt 1: Neuen Workflow erstellen

n8n öffnen, auf "Neuer Workflow" klicken und ihn "Web-Rechercheagent" nennen.

Schritt 2: Manuellen Auslöser hinzufügen (zum Testen)

Einen "Manueller Auslöser"-Knoten hinzufügen. Damit kann der Workflow durch Klicken auf "Workflow testen" gestartet werden.

Schritt 3: KI-Agent-Knoten hinzufügen

1. Auf die Schaltfläche "+" klicken, um nach dem Auslöser einen Knoten hinzuzufügen 2. Nach "KI-Agent" suchen und auswählen 3. In den Knoteneinstellungen: - Chat-Modell: OpenAI- oder Ollama-Zugangsdaten auswählen - Modell: gpt-4o oder llama3.3:8b - Systemnachricht: Rolle und Anweisungen des Agenten hinzufügen

Diese Systemnachricht verwenden:

bash
Sie sind ein Forschungsassistent. Wenn Sie ein Thema erhalten, durchsuchen Sie das Web nach aktuellen und relevanten Informationen, lesen Sie die wichtigsten Seiten und liefern Sie eine strukturierte Zusammenfassung mit:
1. Einem 2-3 Sätze umfassenden Überblick über das Thema
2. 3-5 wichtigen Erkenntnissen oder Datenpunkten
3. Den verwendeten Quellen

Zitieren Sie Quellen immer mit URLs. Seien Sie präzise und sachlich.

Schritt 4: SerpAPI-Tool hinzufügen (Websuche)

1. Im KI-Agent-Knoten auf "Tool hinzufügen" klicken 2. "SerpAPI" auswählen (erfordert kostenloses SerpAPI-Konto: 100 Suchen/Monat gratis) 3. SerpAPI-Zugangsdaten hinzufügen 4. Beschreibung setzen: "Dieses Tool verwenden, um das Web nach aktuellen Informationen zu einem beliebigen Thema zu durchsuchen"

Alternative: "Brave Search"-Tool (mit Brave Search API-Schlüssel) oder "Tavily"-Tool für KI-optimierte Suchergebnisse.

Schritt 5: HTTP-Request-Tool hinzufügen (Webseitenleser)

1. Im KI-Agent-Knoten ein weiteres Tool hinzufügen 2. "HTTP-Request-Tool" auswählen 3. Methode GET konfigurieren 4. Beschreibung: "Dieses Tool verwenden, um den vollständigen Inhalt einer Webseite zu lesen, wenn deren URL bekannt ist"

Schritt 6: Ausgabeknoten hinzufügen

Nach dem KI-Agent-Knoten einen "Set"-Knoten hinzufügen, um die abschließende Ausgabe des Agenten zu extrahieren und für nachgelagerte Verwendung zu formatieren.

Schritt 7: Workflow testen

Auf "Workflow testen" klicken. Im manuellen Auslöser Testdaten eingeben:

json
{
  "input": "Was sind die beliebtesten KI-Coding-Tools 2026 und wie viel kosten sie?"
}

Der KI-Agent-Knoten zeigt jeden Schritt im Ausgabefeld: die aufgerufenen Tools, die Zwischenergebnisse und die abschließende Antwort.

💡
Tipp:Wenn der Agent mehr als 10 Schritte ohne Abschluss ausführt, erreicht er das Standard-Schritt-Limit und gibt einen Fehler zurück. Die Einstellung "Max. Iterationen" im KI-Agent-Knoten für komplexe Rechercheaufgaben auf 15-20 erhöhen. Für einfache Aufgaben reduzieren, um Kosten zu senken.

Agent 2: Kundensupport-Agent mit Gedächtnis

Dieser Agent führt mehrstufige Gespräche und merkt sich, was in vorherigen Nachrichten gesagt wurde. Er nutzt den Window-Buffer-Memory-Knoten von n8n.

Speichertypen in n8n

SpeichertypFunktionGeeignet für
Window Buffer MemorySpeichert die letzten N Nachrichten im RAMEinzelsitzungs-Chatbots
Postgres Chat MemorySpeichert Verlauf in der DatenbankPersistente Mehrsitzungs-Agenten
Redis Chat MemorySpeichert Verlauf in RedisHochfrequenz-Setups
Simple MemorySpeichert Kontext in der Workflow-AusführungSchnelles Testen

Für einen Support-Chatbot ist Postgres Chat Memory am besten: er übersteht Server-Neustarts und trennt Gespräche über eine Sitzungs-ID.

Schritt 1: Chat-Auslöser einrichten

1. Einen "Chat-Auslöser"-Knoten hinzufügen (statt manuellen Auslöser) 2. "Öffentlich" aktivieren, damit die Chat-Oberfläche über eine URL zugänglich ist 3. Der Chat-Auslöser stellt automatisch eine sessionId für jeden Nutzer bereit

Schritt 2: KI-Agent-Knoten hinzufügen

KI-Agent-Knoten hinzufügen und Systemnachricht für eine Support-Agent-Persona einstellen:

bash
Sie sind ein hilfreicher Kundensupport-Agent für KI Tool Entdeckung (de.aitooldiscovery.com). Sie helfen Nutzern dabei, die richtigen KI-Tools für ihre Bedürfnisse zu finden.

Wenn ein Nutzer beschreibt, was er tun möchte, stellen Sie Rückfragen zu Anwendungsfall, Budget und technischem Kenntnisstand. Empfehlen Sie dann 2-3 spezifische Tools mit kurzen Begründungen.

Sie erinnern sich an frühere Nachrichten in diesem Gespräch und beziehen sich bei Bedarf darauf.

Schritt 3: Postgres Chat Memory hinzufügen

1. Im KI-Agent-Knoten auf "Speicher hinzufügen" klicken 2. "Postgres Chat Memory" auswählen 3. Postgres-Zugangsdaten verbinden 4. "Sitzungs-ID" setzen auf: {{ $('Chat-Auslöser').item.json.sessionId }} 5. "Kontextfensterlänge" auf 10 setzen (merkt sich die letzten 10 Nachrichtenpaare)

Schritt 4: Verbinden und testen

Chat-Auslöser mit KI-Agent verbinden. Die Chat-URL aus dem Chat-Auslöser-Knoten öffnen. Mehrere Nachrichten nacheinander senden:

bash
Nutzer: Ich möchte meine Social-Media-Beiträge automatisieren
Agent: [fragt nach Plattformen, Häufigkeit, Inhaltstyp]
Nutzer: Instagram und LinkedIn, täglich, hauptsächlich Marketing-Inhalte
Agent: [empfiehlt spezifische Tools, erinnert sich an Instagram + LinkedIn]

Der Speicherknoten speichert und ruft den Kontext automatisch ab. Der Agent verliert den Gesprächsfaden zwischen den Nachrichten nicht.

Agent 3: Tabellenkalkulations-Datenverarbeitungsagent

Dieser Agent liest Zeilen aus einem Google Sheet und entscheidet anhand des Inhalts, was mit jeder Zeile zu tun ist.

Anwendungsfall: Ein Google Sheet enthält Kundenanfragen-E-Mails (als Text kopiert). Der Agent liest jede Zeile, klassifiziert die Anfrageart (Rückerstattung, technischer Support, Vertrieb, allgemein) und schreibt die Klassifizierung zurück.

Schritt 1: Zeitplan-Auslöser

Einen "Zeitplan-Auslöser"-Knoten hinzufügen, der stündlich läuft (oder bei Bedarf zum Testen).

Schritt 2: Google Sheets lesen

Einen "Google Sheets"-Knoten hinzufügen:

  • Vorgang: Viele Zeilen abrufen
  • Tabelle: Zieltabelle
  • Blatt: "Anfragen"
  • Filter: Zeilen, bei denen die Spalte "Status" leer ist (unverarbeitete Zeilen)

Schritt 3: Über Elemente iterieren

Einen "Elementlisten"-Knoten > "In Stapel aufteilen" hinzufügen. Stapelgröße auf 1 setzen.

Schritt 4: KI-Agent-Knoten

KI-Agent-Knoten mit dieser Systemnachricht hinzufügen:

bash
Sie sind ein Kundenanfragen-Klassifizierer. Sie erhalten den Text einer Kundenanfrage.

Ordnen Sie diese genau einer dieser Kategorien zu:
- ERSTATTUNG: Kunde möchte eine Rückerstattung
- TECHNISCH: Kunde hat ein technisches Problem oder einen Fehlerbericht
- VERTRIEB: Kunde fragt nach Preisen, Upgrades oder neuen Funktionen
- ALLGEMEIN: Alles andere

Antworten Sie nur mit dem Kategorienamen in Großbuchstaben. Keine Erklärung, keine Satzzeichen.

Eingabe setzen auf: {{ $json.inquiry_text }}

Für diese Klassifizierungsaufgabe ist ein kleineres, schnelleres Modell geeignet: gpt-4o-mini (OpenAI) oder qwen2.5:7b (Ollama).

Schritt 5: In Google Sheets zurückschreiben

Zweiten "Google Sheets"-Knoten hinzufügen:

  • Vorgang: Zeile aktualisieren
  • Spalte "Kategorie" mit Ausgabe des KI-Agenten aktualisieren
  • Spalte "Status" auf "Verarbeitet" setzen

Schritt 6: Fehlerbehandlung

Einen "Fehler-Auslöser"-Knoten hinzufügen. Bei unerwarteten Werten eine Slack- oder E-Mail-Benachrichtigung für manuelle Überprüfung auslösen.

⚠️
Warnung:Bei der Verarbeitung sensibler Kundendaten n8n auf einem eigenen VPS selbst hosten statt n8n Cloud zu nutzen. Dadurch bleiben die Daten auf Ihrer Infrastruktur. Siehe n8n Docker-Anleitung für die selbstgehostete Bereitstellung.

Verfügbare KI-Agent-Tools in n8n

Der KI-Agent-Knoten in n8n unterstützt diese integrierten Tool-Typen ab n8n 1.25.x:

ToolFunktionErfordert
RechnerWertet mathematische Ausdrücke ausNichts
SerpAPIGoogle-SuchergebnisseSerpAPI-Schlüssel (gratis: 100/Monat)
Brave SearchWebsuche über BraveBrave Search API-Schlüssel
TavilyKI-optimierte WebsucheTavily API-Schlüssel
WikipediaDurchsucht WikipediaNichts
HTTP-RequestRuft beliebige URLs auf oder APIsNichts (pro Verwendung konfigurieren)
Code (JavaScript)Führt JavaScript in der Agentenschleife ausNichts
ThinkInternes Notizblock für ÜberlegungenNichts (natives n8n-Tool)
Vektorspeicher (Abruf)Durchsucht einen VektorspeicherVektorspeicher-Zugangsdaten

Benutzerdefinierte Tools per HTTP-Request

Das HTTP-Request-Tool ist das flexibelste. Es kann jede externe API aufrufen: CRM, Datenbank-API, interne Unternehmensendpunkte. Der Agent übergibt Parameter, die Sie definieren.

Beispiel: Ein Tool, das den Bestellstatus anhand der Bestell-ID abruft:

bash
Tool-Name: bestellstatus_pruefen
Beschreibung: Dieses Tool verwenden, um den aktuellen Status einer Kundenbestellung nachzuschlagen. Eingabe: order_id (Zeichenkette)
URL: https://ihre-api.com/bestellungen/{{ $fromAI('order_id') }}
Methode: GET

Der Ausdruck $fromAI('parameter_name') teilt n8n mit, dass der KI-Agent diesen Wert basierend auf dem Gesprächskontext befüllen soll.

Token-Nutzung begrenzen

Agentenschleifen verbrauchen mehr Token als einzelne LLM-Aufrufe:

bash
- Max. Iterationen auf das Minimum setzen (5-8 für einfache Aufgaben, 10-15 für Recherche)
- Kleinere Modelle für Klassifizierungsaufgaben verwenden (gpt-4o-mini statt gpt-4o)
- Token-Budget in der Systemnachricht setzen: "Maximal 3 Tool-Aufrufe insgesamt"
- Nutzung im OpenAI-Dashboard oder in den Ollama-Logs überwachen

Ollama-Modelle als Agent-Backend verwenden

Der Wechsel von OpenAI zu Ollama in einem n8n-KI-Agenten erfordert nur eine Zugangsdatenänderung.

Empfohlene Modelle für n8n-Agenten

ModellOllama PullTool-CallingAgent-QualitätRAM
llama3.3:8bollama pull llama3.3:8bGutGut8 GB
qwen2.5:14bollama pull qwen2.5:14bAusgezeichnetAusgezeichnet16 GB
qwen2.5:7bollama pull qwen2.5:7bGutGut6 GB
mistral-smallollama pull mistral-smallGutSehr gut24 GB

Backend in einem bestehenden Agenten wechseln

1. KI-Agent-Knoten öffnen 2. Auf das Feld "Chat-Modell" klicken 3. Zugangsdaten von "OpenAI-Konto" auf Ihre "Ollama"-Zugangsdaten umstellen 4. Modellname auf das Ollama-Modell ändern (z.B. qwen2.5:14b) 5. Speichern und erneut testen

Keine weiteren Änderungen erforderlich. Agentenlogik, Tools und Speicherkonfiguration sind modellunabhängig.

💡
Tipp:n8n und Ollama auf demselben Server betreiben, um die Latenz zu minimieren. Ein Contabo Cloud VPS 30 (€16,95/Monat, 24 GB RAM) verarbeitet n8n plus Ollama mit qwen2.5:14b problemlos: beide Dienste laufen gleichzeitig mit ausreichend RAM.

Fehlerbehebung

ProblemUrsacheLösung
KI-Agent-Knoten gibt "Maximale Iterationen erreicht" ohne abschließende Antwort zurückDer Agent hat die Schritte aufgebraucht, bevor er die Aufgabe abgeschlossen hat. Standard-Max-Iterationen ist 10.In den KI-Agent-Knoten-Einstellungen "Max. Iterationen" auf 15 oder 20 erhöhen. Systemnachricht prüfen: wenn die Aufgabenbeschreibung zu vage ist, kann der Agent unnötig in einer Schleife hängen.
Ollama-Agent stoppt mitten in der Aufgabe und gibt rohen JSON aus statt ein Tool aufzurufenDas Modell ist zu klein für zuverlässiges Tool-Calling. Modelle unter 7B versagen dabei häufig.Zu llama3.3:8b oder qwen2.5:14b wechseln. Im Ausgabefeld des KI-Agent-Knotens ist zu sehen, wo das Format unterbrochen wurde.
Speicherknoten behält keinen Kontext zwischen Workflow-AusführungenWindow Buffer Memory speichert Kontext im RAM und verliert ihn beim n8n-Neustart.Zu Postgres Chat Memory oder Redis Chat Memory wechseln. Beide persistieren Daten in einem externen Speicher. Dieselbe Sitzungs-ID verwenden, um Nachrichten dem richtigen Nutzer zuzuordnen.
SerpAPI-Tool gibt keine Ergebnisse oder einen Authentifizierungsfehler zurückUngültiger oder abgelaufener SerpAPI-Schlüssel, oder das kostenlose monatliche Limit (100 Suchen) wurde erreicht.API-Schlüssel im SerpAPI-Dashboard prüfen. Bei Limit-Erreichen auf Brave Search oder Tavily als Such-Tool umsteigen.
Agent ruft das falsche Tool auf oder ignoriert verfügbare ToolsTool-Beschreibungen sind zu vage oder überschneiden sich, was das Modell zu falschen Auswahlen verleitet.Jede Tool-Beschreibung spezifischer formulieren. Beschreibungen mit "Dieses Tool verwenden, wenn..." beginnen und das erwartete Eingabeformat angeben.
Chat-Auslöser-Gedächtnis vermischt Gespräche verschiedener NutzerSitzungs-ID im Speicherknoten nicht korrekt gesetzt, wodurch alle Gespräche denselben Speicherschlüssel verwenden.Im Speicherknoten Sitzungs-ID auf {{ $("Chat-Auslöser").item.json.sessionId }} setzen. Mit zwei separaten Browser-Tabs verifizieren, dass jeder Tab ein unabhängiges Gedächtnis hat.

Alternativen

ToolArtPreisIdeal für
FlowiseSelbstgehostetKostenlos / Open-SourceVisueller Drag-and-Drop-Agentenbau ohne die allgemeinen Automatisierungsfunktionen von n8n. Besser für reine Chatbot- und RAG-Anwendungen.
LangChain (Python)Code-BibliothekKostenlos / Open-SourceEntwickler, die vollständige programmatische Kontrolle über die Agentenlogik wünschen. Flexibler als n8n, erfordert jedoch Python-Kenntnisse und deutlich mehr Code.
AgnoPython-FrameworkKostenlos / Open-SourceAufbau von Multi-Agenten-Systemen, bei denen Agenten zusammenarbeiten und Aufgaben aneinander übergeben. Besser für komplexe Agentenarchitekturen geeignet als n8n.
Make.comCloudKostenlos / ab $9/MonatNutzer, die eine vollständig verwaltete Cloud-Alternative zu selbstgehostetem n8n bevorzugen. Hat KI-Module, aber keinen nativen KI-Agent-Knoten.

Häufige Fragen

Erfordert das Erstellen von KI-Agenten in n8n Programmierkenntnisse?

Nein. Der KI-Agent-Knoten, Speicherknoten und alle integrierten Tools werden über die visuelle Oberfläche von n8n konfiguriert, ohne Code schreiben zu müssen. Die einzige Ausnahme ist das "Code"-Tool, das es dem Agenten erlaubt, JavaScript auszuführen. Dieses Tool ist optional und für die meisten Agent-Workflows nicht erforderlich.

Was kostet der Betrieb eines KI-Agenten in n8n?

Die Kosten hängen vom LLM-Backend und dem Nutzungsvolumen ab.

Mit OpenAI GPT-4o: ca. $0,005 pro 1.000 Input-Token und $0,015 pro 1.000 Output-Token. Ein Rechercheagent mit 5 Tool-Aufrufen und einer 500-Wort-Zusammenfassung kostet ca. $0,05-0,10 pro Ausführung.

Mit lokalen Ollama-Modellen: null Kosten pro Agent-Ausführung. Sie zahlen nur für den Server, auf dem Ollama läuft. Ein Contabo Cloud VPS 10 für €5,45/Monat verarbeitet n8n plus Ollama mit einem 7B-Modell.

Kann ein n8n-KI-Agent das Internet durchsuchen?

Ja. Das SerpAPI-, Brave-Search- oder Tavily-Tool zum KI-Agent-Knoten hinzufügen. Der Agent ruft das Such-Tool auf, wenn er aktuelle Informationen benötigt, empfängt die Ergebnisse und kann dann das HTTP-Request-Tool verwenden, um vollständige Webseitenhalte von URLs in den Ergebnissen zu lesen.

Was ist der Unterschied zwischen n8n-KI-Agent und Basic-LLM-Chain-Knoten?

Der Basic-LLM-Chain-Knoten sendet einen Prompt an ein LLM und gibt eine Antwort zurück. Es ist eine einmalige Operation ohne Tool-Nutzung und ohne Iteration.

Der KI-Agent-Knoten gibt dem LLM eine Reihe von Tools und eine Aufgabe. Das Modell entscheidet dann, welche Tools in welcher Reihenfolge aufgerufen werden, und iteriert, bis die Aufgabe abgeschlossen ist. Er kann 5-15 Tool-Aufrufe in einer einzigen Agent-Ausführung machen.

Funktioniert der n8n-KI-Agent mit selbstgehosteten Ollama-Modellen?

Ja. In n8n unter Einstellungen > Zugangsdaten Ollama-Zugangsdaten mit Ihrer Ollama-Server-URL hinzufügen. Im KI-Agent-Knoten das Chat-Modell auf Ihre Ollama-Zugangsdaten umstellen und den Modellnamen auswählen.

Für zuverlässiges Tool-Calling llama3.3:8b oder qwen2.5:14b verwenden. Modelle unter 7B Parameter versagen häufig bei der strukturierten JSON-Ausgabe.

Wie verhindere ich, dass ein n8n-KI-Agent unbegrenzt läuft?

Der KI-Agent-Knoten hat eine Einstellung "Max. Iterationen" (Standard: 10). Wenn der Agent dieses Limit erreicht, stoppt er und gibt die bisherige Teilantwort zurück.

Für Produktionsagenten das Minimum an Iterationen setzen: ein Klassifizierungsagent benötigt 1-2 Iterationen, ein Rechercheagent 5-10. Niedrigere Limits reduzieren sowohl Kosten als auch die Gefahr endloser Schleifen.

Wie gebe ich einem n8n-KI-Agenten Zugriff auf eigene Daten?

Mehrere Ansätze je nach Datentyp:

Für strukturierte Daten (Datenbanken, Tabellen): Google-Sheets-, Postgres- oder MySQL-Tool zum Agenten hinzufügen. Der Agent fragt die Datenquelle direkt ab.

Für dokumentenbasiertes Wissen (PDFs, Dokumente): Einen Vektorspeicher (Pinecone, Qdrant oder den eingebauten Simple Vector Store) einrichten und das Vektorspeicher-Abruf-Tool zum Agenten hinzufügen.

Für Echtzeit-Daten: HTTP-Request-Tool mit Ihrem internen API-Endpunkt konfigurieren.

Kann ich mehrere KI-Agenten im selben n8n-Workflow betreiben?

Ja. KI-Agent-Knoten können verkettet werden, sodass ein Agent seine Ausgabe an einen anderen übergibt. Häufiges Muster: ein "Router"-Agent liest eingehende Anfragen und entscheidet, welchen Spezialisten-Agenten er aufruft.

Agenten können auch parallel laufen: Eingabe aufteilen, zwei Agenten gleichzeitig ausführen, Ausgaben zusammenführen. Nützlich für die gleichzeitige Durchführung von Validierung und Generierung.

Server für dieses Projekt

Contabo (gegründet 2003 in München) bietet VPS mit unbegrenztem Traffic, vollem Root-Zugriff und Rechenzentren in Deutschland, USA, Singapur und weiteren Regionen.

Contabo Cloud VPS 10€5,45/Monat ansehen →

Affiliate-Link. Provision bei Kauf, ohne Mehrkosten für dich.

Amara, KI-Expertin bei KI Tool Entdeckung

Verfasst von

Amara

KI-Expertin bei KI Tool Entdeckung. Spezialisiert auf Self-Hosting, lokale KI-Modelle und KI-Automatisierung. Zuletzt aktualisiert: 7. April 2026

Verwandte Anleitungen

Zurück zu den Anleitungen