n8n mit ChatGPT verbinden: Die vollständige Anleitung (2026)

Zwei digitale Netzwerkdiagramme in Blau und Gold erscheinen nebeneinander, überlagert von fettgedrucktem deutschen Text: n8n chatgpt verbinden: Der Guide 2026. Ein dunkler Hintergrund zeigt leuchtende Verbindungslinien, die Automatisierung und Integration hervorheben.

n8n und ChatGPT verbinden heißt: OpenAI API-Key einrichten, Workflows mit dem OpenAI oder AI Agent Node bauen und entscheiden, welches Modell für welche Aufgabe sinnvoll ist. Dieser Guide zeigt die Einrichtung Schritt für Schritt, vergleicht ChatGPT mit Claude und Gemini und erklärt, wie ChatGPT selbst als Trigger für n8n-Workflows dienen kann.

Rene, dein KI-Enthusiast und Blogger

Von: René Lutz

veröffentlicht:

zuletzt aktualisiert:

KI-Praktiker aus dem Finanzsektor. Schreibt seit 2022 über KI-Tools, n8n-Automatisierung und lokale Modelle.

Was du in diesem Guide lernst

  • Wie du den OpenAI API-Key einrichtest und in n8n verbindest
  • Welches Modell (ChatGPT, Claude oder Gemini) für welchen Zweck taugt
  • 4 konkrete Workflow-Beispiele mit Schritt-für-Schritt-Erklärung
  • Wie der AI Agent Node funktioniert und wann du ihn brauchst
  • Wie ChatGPT selbst n8n-Workflows auslösen kann (Custom GPT Actions)
  • Wie du API-Kosten um bis zu 80 % reduzierst
Transparenz: * Dieser Artikel enthält Affiliate-Links. Wenn du n8n über einen meiner Links testest, erhalte ich eine kleine Provision. Meine Bewertung bleibt davon unabhängig.

n8n und ChatGPT zusammen sind eine der wirkungsvollsten Kombinationen in der Automatisierung im Moment. n8n übernimmt die Logik und die Verbindung zu externen Diensten, ChatGPT bringt das Sprachverständnis und die Generierungsfähigkeit. Was dabei entsteht, sind Workflows, die nicht nur Daten weiterschieben, sondern mit diesen Daten denken und handeln.

In diesem Guide zeige ich dir, wie du ChatGPT direkt mit n8n verbinden kannst, welche LLM-Modelle wirklich sinnvoll sind und was mit dieser Kombination alles möglich ist. Inklusive eines weitgehend unbekannten Winkels: ChatGPT kann n8n nicht nur bedienen, es kann n8n auch auslösen.

Schnellstart: Schon erfahren?
  1. OpenAI API-Key erstellen auf platform.openai.com
  2. In n8n: Credentials → New → OpenAI API → Key eintragen
  3. Workflow mit “OpenAI” oder “AI Agent” Node aufbauen
  4. Modell wählen, Prompt setzen, testen

Was bedeutet “n8n mit ChatGPT verbinden” genau?

Wenn du n8n mit ChatGPT verbindest, sprichst du eigentlich mit der OpenAI-API. Du brauchst keinen ChatGPT-Plus-Account, sondern einen API-Key von platform.openai.com. Das geht auch ohne Abo. Der Vorteil des API-Zugriffs: Du bezahlst nur, was du tatsächlich verbrauchst. n8n kommuniziert direkt und unabhängig von der ChatGPT-Weboberfläche.

In n8n gibt es zwei verschiedene Wege, ChatGPT einzusetzen.

OpenAI Node: einmaliger Aufruf

Der einfachste Weg. Du gibst Text oder Daten rein, GPT gibt dir Text raus. Perfekt für klare Aufgaben: Zusammenfassen, Übersetzen, Klassifizieren, E-Mail-Entwürfe schreiben. Der Workflow läuft linear durch, ChatGPT ist ein Schritt davon.

AI Agent Node: autonomes Handeln

Der AI Agent Node gibt ChatGPT die Kontrolle über Entscheidungen und den Einsatz von Werkzeugen. Du sagst dem Agenten, was er erreichen soll, und stellst ihm Tools zur Verfügung: Web-Suche, Google Sheets, HTTP Request, Slack. Das LLM entscheidet selbst, welche Tools es in welcher Reihenfolge einsetzt. Der Agent ist nicht auf einen Schritt begrenzt.

Zwei Richtungen der Verbindung

Die meisten Anleitungen zeigen nur eine Richtung: n8n ruft ChatGPT auf. Es gibt aber auch die umgekehrte Richtung. Mit Custom-GPT-Actions kann ChatGPT selbst n8n-Workflows auslösen. Dazu komme ich in Abschnitt 6.

API-Key vs. ChatGPT Plus: Du brauchst für n8n keinen ChatGPT Plus Account. Der API-Key kommt von platform.openai.com und wird separat abgerechnet. Ein Plus-Abo und API-Nutzung sind völlig getrennte Produkte.

Wie richtest du die OpenAI-Verbindung in n8n ein?

Die Einrichtung dauert unter 10 Minuten. Du brauchst einen OpenAI-Account, ein laufendes n8n und nichts weiter.

OpenAI API-Key erstellen Geh auf platform.openai.com → “API Keys” → “Create new secret key”. Gib dem Key einen Namen (z.B. “n8n-workflows”), kopiere ihn sofort. Er wird danach nicht mehr vollständig angezeigt.
Credential in n8n anlegen In n8n: oben rechts auf “Credentials” klicken → “Add Credential” → nach “OpenAI” suchen → “OpenAI API” auswählen → API-Key eintragen → speichern.
OpenAI Node in den Workflow einfügen Im Workflow-Editor: “+” klicken → nach “OpenAI” suchen. Für einfache Aufgaben nimmst du den “OpenAI” Node. Für Agenten-Setups nimmst du “AI Agent” mit einem verbundenen “OpenAI Chat Model” Sub-Node.
Modell auswählen und Prompt eingeben Im Parameter “Model” wählst du z.B. gpt-4o-mini für günstige Tasks oder gpt-4o für komplexe Anforderungen. Im System Prompt definierst du das Verhalten, im User Prompt übergibst du Daten via {{ $json.feldname }}.
Testen und Output prüfen Klicke “Test step”. Die Antwort von GPT steht danach in {{ $json.message.content }} für den nächsten Node.
OpenAI Node in n8n konfiguriert mit GPT-4o-mini, Credential und Prompt
OpenAI Node in n8n: Credential, Modell und Prompt auf einen Blick

Prompt-Aufbau: So übergibst du Daten aus anderen Nodes

Der häufigste Einstiegsfehler: Der Prompt ist statisch, dabei lebt die Stärke von n8n in der dynamischen Datenübergabe. So sieht ein typischer Prompt aus:

System Prompt Du bist ein professioneller Texter. Fasse den folgenden Text präzise in maximal 3 Sätzen zusammen. Antworte auf Deutsch. Kein Einleitungssatz, direkt mit der Zusammenfassung beginnen.
User Prompt (mit n8n Expression) Text: {{ $json.body }}
Tipp zu Expressions: Du kannst mit {{ $('NodeName').item.json.feld }} auf Daten aus beliebigen vorherigen Nodes im Workflow zugreifen, nicht nur auf den direkt vorherigen.

ChatGPT, Claude oder Gemini: Welches Modell passt zu welchem Workflow?

n8n unterstützt alle großen LLM-Anbieter nativ. Du kannst OpenAI, Anthropic (Claude), Google (Gemini) und lokale Modelle via Ollama mit einem einzigen Credential-Wechsel austauschen.

AnbieterModell (2026)Stärken in n8nDSGVOEmpfohlen für
OpenAIGPT-4o, GPT-4o-miniAllround, DALL-E-Integration, breite API-Reife⚠ US-ServerAllgemeine Workflows, Bildgenerierung
AnthropicClaude Sonnet 4.6, Haiku 4.5Lange Kontextfenster, präzise Instruktionstreue⚠ US-ServerLange Dokumente, Content-Generierung
GoogleGemini 2.0 Flash, ProGünstigstes Preis-Leistungs-Verhältnis, schnell⚠ US-ServerHohe Volumen, einfache Klassifizierungen
Ollama (lokal)Llama 3.3, Mistral Large, Phi-4Komplett lokal, keine API-Kosten✓ lokalDSGVO-sensitive Daten, interne Prozesse

Meine eigene Erfahrung mit der Modellwahl

In meinem Pixios-Content-Workflow laufen fünf parallele KI-Aufrufe pro Amazon-Produkt. Ich habe lange mit Claude Sonnet gearbeitet. Später dann Claude Haiku für die einfacheren Content-Tasks getestet. Die Qualität war für Social-Media-Posts gleichwertig, die API-Kosten sanken um über 80 Prozent. Für komplexes Reasoning bleibt Sonnet oder GPT-4o meine Wahl. Für Massenverarbeitung kurzer Texte ist Haiku oder GPT-4o-mini die klügere Entscheidung.

Faustregel Modellwahl: Klassifizierung, kurze Texte, Formatierungsaufgaben → Mini/Haiku/Flash. Reasoning, lange Dokumente, komplexe Anweisungen → GPT-4o, Claude Sonnet, Gemini Pro.

Welche Workflows kannst du mit n8n und ChatGPT bauen?

Die Kombination aus n8n-Logik und ChatGPT-Sprachverständnis funktioniert überall dort gut, wo Texte verarbeitet, bewertet oder generiert werden müssen.

E-Mail-Assistent

Einstieg · ca. 20 Min.

Eingehende E-Mails werden per Gmail-Trigger empfangen, an ChatGPT übergeben und automatisch zusammengefasst oder mit einem Antwort-Entwurf versehen. Der Entwurf landet als Vorlage im Postfach. Benachrichtigungen über priorisierte Anfragen gehen per Slack.

Gmail Trigger → OpenAI (Zusammenfassung) → Gmail (Entwurf) + Slack

Lead-Generierung und Qualifizierung

Fortgeschritten · ca. 30 Min.

Kontaktformular-Einträge werden per Webhook empfangen. KI-gestützte Bewertung durch ChatGPT gibt einen Score: Hot, Warm oder Cold. Je nach Score folgt eine andere Aktion im CRM. Leads lassen sich so automatisch priorisieren.

Webhook → OpenAI (Scoring) → IF Node → CRM + Slack

Content-Generierung

Fortgeschritten · ca. 30 Min.

Ein Input-Datensatz (Produkt-URL, Keyword, Thema) wird an mehrere parallele ChatGPT-Aufrufe gesendet. Jeder Aufruf generiert einen anderen Content-Typ: Blog Posts, Social Media Content, Produkttexte. Skaliert auf 100 Eingaben ohne zusätzlichen Aufwand.

HTTP Request → Split → parallele OpenAI Nodes → Google Sheets

Social Media Management

Fortgeschritten · ca. 25 Min.

Themen oder RSS-Feeds kommen rein, ChatGPT generiert plattformspezifische Posts für LinkedIn, Instagram und Twitter/X. Templates sorgen für konsistente Tonalität. Veröffentlichung läuft automatisch oder landet zur Freigabe in einem Google Sheet.

RSS / Webhook → OpenAI (pro Plattform) → Buffer / Google Sheets

Chatbot mit Gedächtnis

Fortgeschritten · ca. 45 Min.

Ein Webhook empfängt Nutzeranfragen, der AI Agent Node verarbeitet sie mit Zugriff auf frühere Nachrichten. Der Window Buffer Memory Node speichert die Gesprächshistorie. Ideal für Support-Bots oder interne Assistenten.

Webhook → AI Agent (+ Memory Node) → Antwort zurück

Prompt Chaining: Mehrere Modelle hintereinanderschalten

Du verbindest mehrere OpenAI-Nodes hintereinander. Der Output des ersten Aufrufs wird zum Input des zweiten. n8n übergibt Daten automatisch zwischen Nodes.

Schritt 1: Rohentwurf Schreibe einen LinkedIn-Post über das folgende Thema in 3 kurzen Absätzen. Fokus auf praktischen Nutzen. Kein Clickbait. Thema: {{ $json.thema }}

Das Ergebnis von Schritt 1 landet in $json.message.content. Der zweite Node greift über den Node-Namen darauf zu:

Schritt 2: Optimierung (Input aus Schritt 1) Kürze den folgenden LinkedIn-Post auf maximal 150 Wörter. Behalte alle konkreten Aussagen, entferne Füllsätze. Post: {{ $(‘Schritt 1’).item.json.message.content }}

Wie funktioniert der AI Agent Node mit ChatGPT?

Der AI Agent Node ist der wichtigste Unterschied zwischen n8n und simplen Automatisierungstools. Statt ChatGPT einmalig zu fragen, gibst du dem Modell Kontrolle über einen Werkzeugkasten. Das Modell entscheidet selbst, welche Werkzeuge es braucht und wann es fertig ist.

Aufbau eines AI Agent Setups

Der Agent-Node braucht immer mindestens zwei verbundene Sub-Nodes:

  • Chat Model: Den KI-Anbieter deiner Wahl. “OpenAI Chat Model”, “Anthropic Chat Model” oder “Google Gemini Chat Model” stehen zur Auswahl. Wird unten links am Agent-Node verbunden.
  • Tools: Jede Funktion, die der Agent aufrufen kann. HTTP Request, Google Sheets, Slack, Web-Suche. Werden unten rechts verbunden.

Optional: Ein Memory-Node hält die Gesprächshistorie über mehrere Aufrufe hinweg verfügbar.

AI Agent Node in n8n mit verbundenem OpenAI Chat Model und Memory Node
AI Agent Node: Chat Model, Memory und Tools werden als Sub-Nodes verbunden
System Prompt: Professioneller Texter Du bist ein professioneller Texter. Fasse den folgenden Text präzise in maximal 3 Sätzen zusammen. Antworte auf Deutsch. Kein Einleitungssatz, direkt mit der Zusammenfassung beginnen. Text: {{ $json.body }}
Wann kein Agent nötig ist: Für lineare Aufgaben wie Zusammenfassen, Übersetzen oder Text generieren ist der einfache OpenAI Node besser. Agents verbrauchen deutlich mehr Tokens, weil das Modell bei jedem Schritt den gesamten Kontext erneut verarbeitet. Wo ein einfacher OpenAI Node 500 Tokens kostet, können drei Agent-Iterationen dasselbe auf 3.000 bis 5.000 Tokens aufblähen.

Kann ChatGPT auch n8n-Workflows auslösen?

Ja, und das ist eine der interessantesten Möglichkeiten, die kaum jemand kennt. Mit “Custom GPT Actions” in ChatGPT Plus kannst du einen eigenen GPT erstellen, der beim Ausführen einer bestimmten Aufgabe deinen n8n-Webhook aufruft. ChatGPT wird damit zur natürlichen Sprach-Schnittstelle für deine n8n-Automatisierungen.

n8n-Workflow mit Webhook-Trigger erstellen Erstelle in n8n einen neuen Workflow. Füge einen “Webhook” Node als Trigger hinzu, wähle “POST” als Methode. Kopiere die Webhook-URL.
Custom GPT in ChatGPT Plus erstellen chat.openai.com → Profilbild → “My GPTs” → “Create a GPT” → Tab “Configure”.
Action mit n8n-Webhook verbinden Unter “Configure” → “Create new action”. Im Schema-Editor fügst du ein OpenAPI-Schema ein, das deine n8n-Webhook-URL als Endpoint definiert und die zu übergebenden Parameter (z.B. “thema”, “plattform”) beschreibt.
n8n-Workflow mit Logik befüllen Der Webhook empfängt die Parameter aus ChatGPT. Du kannst beliebige Folge-Nodes anhängen: OpenAI für weitere Verarbeitung, Google Sheets zum Speichern, Gmail zum Versenden.

So sieht ein minimales OpenAPI-Schema aus, das du in Schritt 3 in den Schema-Editor einfügst:

OpenAPI Schema (Minimal-Beispiel) openapi: “3.1.0” info: title: n8n Workflow Trigger version: “1.0” servers: – url: https://deine-n8n-instanz.de paths: /webhook/xyz: post: operationId: triggerWorkflow summary: Löst den n8n-Workflow aus requestBody: required: true content: application/json: schema: type: object properties: thema: type: string description: Das Thema für den Content plattform: type: string description: LinkedIn, Instagram oder Twitter responses: “200”: description: Workflow gestartet
Voraussetzung: ChatGPT Plus ist für Custom GPTs Pflicht. Außerdem brauchst du eine öffentlich erreichbare n8n-Instanz (Cloud oder Self-Hosted mit Domain). Lokales n8n auf dem PC funktioniert nur mit einem Tunnel-Tool wie ngrok oder Cloudflare Tunnel. Beide stellen eine öffentlich erreichbare URL für deinen lokalen Port bereit, ohne eigene Domain oder Server.

Was kostet die ChatGPT-Integration in n8n?

ModellKosten InputKosten OutputEmpfehlung
GPT-4o-mini$0,15 / 1M Tokens$0,60 / 1M TokensStandard für einfache Tasks, sehr günstig
GPT-4o$2,50 / 1M Tokens$10,00 / 1M TokensKomplexes Reasoning, wichtige Entscheidungen
Claude Haiku 4.5$0,80 / 1M Tokens$4,00 / 1M TokensEinfache Generierung, guter Stil
Claude Sonnet 4.6$3,00 / 1M Tokens$15,00 / 1M TokensKomplexe Analyse, lange Dokumente
Gemini 2.0 Flash$0,10 / 1M Tokens$0,40 / 1M TokensGünstigstes Modell für Massenverarbeitung
Ollama (lokal)0 €0 €Interne Daten, braucht eigene Hardware

1.000 Tokens entsprechen ungefähr 750 deutschen Wörtern. Ein typischer Workflow-Prompt mit 200 Wörtern Input und 300 Wörtern Output kostet mit GPT-4o-mini weniger als 0,001 Euro. Bei 10.000 solchen Tasks pro Monat sind das unter 10 Euro. Mit GPT-4o wären es ca. 65 Euro für dieselbe Last. Bei Social Media Management mit 50 Posts täglich und durchschnittlich 500 Tokens pro Aufruf liegen die API-Kosten mit GPT-4o-mini unter 3 Euro im Monat. Der E-Mail-Assistent kommt bei 200 eingehenden E-Mails täglich und je 1.000 Tokens pro Zusammenfassung auf knapp 1 Euro im Monat.

Kostenoptimierung in 3 Schritten:
  • System Prompts so kurz wie möglich halten, sie werden bei jedem Aufruf mitgezählt
  • Für Massenaufgaben auf Mini/Haiku/Flash wechseln
  • API-Spending-Limits auf platform.openai.com setzen

Welche häufigen Fehler passieren beim Verbinden?

“Authentication Error” oder 401

Der API-Key ist falsch oder wurde nicht vollständig kopiert. Lösung: In n8n Credentials den Key neu eintippen (nicht einfügen, da Leerzeichen am Ende auftreten können) und mit “Test credential” prüfen.

“Rate Limit Exceeded” oder 429

Zu viele Aufrufe pro Minute. Lösung: Zwischen parallelen Aufrufen einen “Wait”-Node (1-2 Sekunden) einbauen. Neue Accounts starten auf Tier 1 mit niedrigen Limits, diese steigen automatisch nach ausreichend Nutzung.

Output wird abgeschnitten

Der Parameter “Max Tokens” ist zu niedrig. Im Node unter “Additional Options” den Wert auf 2.000 oder 4.000 erhöhen.

“Context Length” oder 400 bei sehr langen Texten

Der Input-Text ist länger als das Kontextfenster des gewählten Modells. GPT-4o-mini hat 128.000 Token Kontextfenster, was für die meisten Fälle reicht. Bei sehr langen Dokumenten vorher mit einem “Summarize”-Schritt oder einem Text-Splitter kürzen.

Antworten sind unzuverlässig oder halluzinieren

Das Modell erfindet Fakten oder antwortet nicht im erwarteten Format. Drei Maßnahmen helfen:

  • Strukturierter Output: Im System Prompt das gewünschte Format explizit vorgeben, z.B. JSON mit konkreten Feldnamen oder eine nummerierte Liste mit fester Struktur.
  • Validation-Schritt: Einen IF-Node nachschalten, der prüft ob das Format stimmt, bevor die Daten weiterlaufen.
  • Temperatur senken: Unter “Additional Options” im Node die Temperature auf 0 oder 0.2 setzen für konsistentere, vorhersagbarere Ausgaben.

Häufig gestellte Fragen

Brauche ich ChatGPT Plus, um n8n mit ChatGPT zu verbinden?

Nein. Die n8n-Integration läuft über die OpenAI API, nicht über ChatGPT Plus. Du brauchst einen Account auf platform.openai.com und ein API-Guthaben. Beide Produkte sind getrennt und werden separat abgerechnet.

Welches ChatGPT-Modell ist am besten für n8n-Workflows?

Für die meisten Automatisierungen reicht GPT-4o-mini vollständig aus und kostet einen Bruchteil von GPT-4o. GPT-4o empfiehlt sich nur für komplexe Reasoning-Aufgaben. Im Zweifelsfall mit GPT-4o-mini starten.

Kann n8n auch mit mehreren KI-Modellen gleichzeitig arbeiten?

Ja. Du kannst in einem Workflow verschiedene Modelle für verschiedene Aufgaben einsetzen. Beispiel: GPT-4o-mini für Klassifizierung, Claude Sonnet für die Ausarbeitung, Gemini Flash für die Abschlusskontrolle. Jeder Node hat seine eigene Credential.

Ist die n8n-ChatGPT-Integration DSGVO-konform?

Die OpenAI API verarbeitet Daten auf US-Servern. Für personenbezogene Daten von EU-Bürgern ist eine Prüfung nötig. Wer volle Datenkontrolle braucht, nutzt Ollama mit lokalen Modellen auf dem eigenen Server.

Gibt es ein Limit, wie viele API-Aufrufe ich machen kann?

OpenAI hat Rate Limits, die von deinem Account-Tier abhängen. Neue Accounts starten auf Tier 1. Das reicht für die meisten Workflows. Der Tier steigt automatisch nach ausreichend Nutzung. Aktuelle Limits unter platform.openai.com/account/limits.

Funktioniert GPT-4 Vision (Bilder analysieren) auch in n8n?

Ja. Im OpenAI Node kannst du Bilder als URLs oder Base64 übergeben. GPT-4o und GPT-4o-mini unterstützen Vision. Damit lassen sich Quittungen auslesen, Screenshots analysieren oder Produktbilder beschreiben.

Wie übergebe ich ChatGPT die Ausgabe eines anderen Nodes?

Über n8n-Expressions im Prompt-Feld. Syntax: {{ $json.feldname }} für den vorherigen Node. Für einen bestimmten Node weiter vorne: {{ $('NodeName').item.json.feldname }}. Den Feldnamen siehst du im Output-Panel des vorherigen Nodes.

Die mit einem * Symbol gekennzeichneten Links sind Affiliate-Links. Erfolgt darüber ein Einkauf, erhalten wir eine Provision ohne Mehrkosten für dich. Die redaktionelle Auswahl und Bewertung der Produkte bleibt davon unbeeinflusst. Dein Klick hilft bei der Finanzierung unseres kostenfreien Angebots. Erfahre mehr.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Mehr…!