Du hast ChatGPT im Browser offen, kopierst Daten hin und her, speicherst Ergebnisse manuell und wiederholst das Ganze morgen. Stopp. n8n macht aus einzelnen KI-Aufgaben automatisierte Workflows die im Hintergrund laufen – ohne dass du einen Finger rühren musst. Hier zeigen wir dir wie du KI-Workflows baust die dein Business wirklich automatisieren.
Was ist n8n?
n8n (ausgesprochen “n-eight-n”) ist eine Open-Source-Automatisierungsplattform. Stell dir eine visuelle Programmierumgebung vor in der du Bausteine (Nodes) verbindest um Prozesse zu automatisieren. Wie Zapier oder Make – aber mit deutlich mehr Power und Flexibilität, besonders bei KI.
Warum n8n für KI-Workflows?
| Feature | n8n | Make | Zapier |
|---|---|---|---|
| KI-Nodes | OpenAI, Anthropic, Ollama, HuggingFace | OpenAI, Anthropic (Module) | OpenAI (begrenzt) |
| AI Agent Node | Ja (mit Tools, Memory, Vector Store) | Nein (manuell) | Nein |
| Lokale KI (Ollama) | Native Node | Nein | Nein |
| Vector Store | Pinecone, Qdrant, Supabase | Nein | Nein |
| Self-Hosting | Ja (Open Source) | Nein | Nein |
| Preis (Einstieg) | 0 EUR (self-hosted) / 20 EUR (Cloud) | 9 EUR/Mo | 19,99$/Mo |
| Code-Nodes | JavaScript + Python | Begrenzt | Nein |
| Workflow-Komplexität | Unbegrenzt | Hoch | Begrenzt |
Fazit: Für einfache Automationen reicht Zapier oder Make. Für KI-Workflows mit Agenten, Memory und komplexer Logik ist n8n die beste Wahl.
Die wichtigsten KI-Nodes in n8n
OpenAI Node
Verbindet sich mit der OpenAI-API (GPT-4o, GPT-4 Turbo, DALL-E 3, Whisper).
Funktionen:
- Text generieren (Chat Completion)
- Bilder generieren (DALL-E 3)
- Audio transkribieren (Whisper)
- Text-to-Speech
- Embeddings erstellen (für Vektor-Suche)
Setup:
- OpenAI API-Key erstellen (platform.openai.com)
- In n8n: Credentials → OpenAI → API-Key einfügen
- OpenAI-Node in Workflow ziehen
- Operation und Modell wählen
Anthropic Node
Verbindet sich mit Claude (Claude 3.5 Sonnet, Claude 3 Opus).
Wann Claude statt GPT?
- Längere Texte (Claude hat ein größeres Kontextfenster)
- Nuancierter Ton (besonders bei sensiblen Themen)
- Analyse langer Dokumente
- Wenn du europäische Datenschutz-Standards bevorzugst
AI Agent Node
Der mächtigste KI-Node in n8n. Erstellt einen KI-Agenten der eigenständig Entscheidungen trifft und Tools nutzt.
Was der Agent kann:
- Auf Fragen antworten basierend auf einer Wissensbasis
- Externe APIs aufrufen (Wetter, Datenbanken, CRMs)
- Dokumente analysieren und zusammenfassen
- Entscheidungen treffen und Aktionen auslösen
- Sich an vorherige Gespräche erinnern (Memory)
Aufbau:
- AI Agent Node (zentrale Steuerung)
- Chat Model (GPT-4, Claude – das “Gehirn”)
- Tools (was der Agent nutzen darf: HTTP Requests, Datenbanken, APIs)
- Memory (Buffer Memory oder Vector Store für Gesprächsverlauf)
- Output Parser (strukturierte Ausgabe erzwingen)
Ollama Node
Verbindet n8n mit lokalen KI-Modellen über Ollama. Keine Cloud, keine API-Kosten, volle Datenschutz-Kontrolle.
Setup:
- Ollama auf deinem Server installieren
- Modell herunterladen:
ollama pull llama3 - In n8n: Ollama-Node hinzufügen
- URL:
http://localhost:11434(oder dein Server)
Einsatz: Perfekt für DSGVO-sensible Workflows wo keine Daten an Cloud-Dienste fließen dürfen.
7 KI-Workflows zum Nachbauen
Workflow 1: Automatischer Blog-Assistent
Was er macht: RSS-Feed überwachen → Relevante Artikel filtern → Zusammenfassung + eigene Perspektive generieren → als Draft in WordPress speichern.
Nodes:
- RSS Feed Trigger → Überwacht Branchen-Blogs
- IF → Filtert nach relevanten Keywords
- HTTP Request → Holt den vollständigen Artikel
- OpenAI → Zusammenfassung + Content-Idee generieren
- WordPress → Speichert als Entwurf
Trigger: Alle 6 Stunden oder bei neuem Artikel.
Prompt für den OpenAI-Node:
Du bist ein Content-Stratege. Analysiere diesen Artikel:
{{$json.content}}
Erstelle:
1. Eine 3-Satz Zusammenfassung
2. Einen eigenen Blog-Artikel-Vorschlag der das Thema aus der Perspektive von [deine Branche] beleuchtet
3. 3 mögliche Headlines
Format: Markdown
Workflow 2: E-Mail-Klassifizierung und Auto-Antwort
Was er macht: Eingehende E-Mails lesen → Kategorie erkennen (Anfrage, Beschwerde, Spam, Bestellung) → Passende Antwort generieren → Als Draft speichern.
Nodes:
- Email Trigger (IMAP) → Neue E-Mail empfangen
- OpenAI → E-Mail klassifizieren
- Switch → Basierend auf Kategorie verzweigen
- OpenAI → Kategorie-spezifische Antwort generieren
- Gmail/SMTP → Antwort als Draft speichern (nicht automatisch senden)
Prompt für Klassifizierung:
Klassifiziere diese E-Mail in genau EINE Kategorie:
- ANFRAGE (Informationsanfrage zu Produkten/Services)
- BESCHWERDE (Unzufriedenheit, Problem)
- BESTELLUNG (Kaufabsicht, Auftrag)
- TERMIN (Terminanfrage oder -bestätigung)
- SPAM (Werbung, irrelevant)
- SONSTIGES
E-Mail:
{{$json.text}}
Antworte nur mit dem Kategorie-Wort, nichts anderes.
Wichtig: E-Mails nie automatisch beantworten lassen. Immer als Draft speichern und manuell prüfen.
Workflow 3: Social-Media-Content-Pipeline
Was er macht: Ein Thema eingeben → 5 LinkedIn-Posts + 5 Twitter-Posts + 3 Instagram-Captions generieren → In Google Sheets speichern → Optional: In Buffer posten.
Nodes:
- Webhook → Thema als Input empfangen
- OpenAI → LinkedIn-Posts generieren
- OpenAI → Twitter-Posts generieren
- OpenAI → Instagram-Captions generieren
- Google Sheets → Alle Posts in Tabelle speichern
- Buffer (optional) → Posts planen
Trigger: Manuell per Webhook oder wöchentlich per Schedule.
Workflow 4: Dokument-Analyse mit Vector Store
Was er macht: PDFs hochladen → In Chunks teilen → Embeddings erstellen → In Vector Store speichern → Per Chat Fragen stellen.
Nodes:
- File Trigger → Neues PDF erkannt
- Extract from File → Text aus PDF extrahieren
- Text Splitter → In Chunks aufteilen (500 Tokens)
- Embeddings OpenAI → Vektoren erstellen
- Vector Store (Pinecone/Qdrant) → Speichern
- AI Agent → Chat-Interface für Fragen an die Dokumente
Anwendungsfälle:
- Vertragsanalyse: “Welche Kündigungsfristen stehen in meinen Verträgen?”
- Wissensmanagement: “Was steht in unserer Datenschutz-Policy zu KI?”
- Forschung: “Fasse die wichtigsten Erkenntnisse aus diesen 20 Papers zusammen”
Workflow 5: Lead-Enrichment Pipeline
Was er macht: Neuer Lead in CRM → Automatisch Website analysieren → LinkedIn-Profil recherchieren → KI-Zusammenfassung erstellen → CRM-Eintrag anreichern.
Nodes:
- CRM Trigger (HubSpot/Pipedrive) → Neuer Kontakt
- HTTP Request → Website des Leads laden
- OpenAI → Website analysieren (Branche, Größe, Angebot)
- HTTP Request → LinkedIn-Daten abrufen (über API)
- OpenAI → Zusammenfassung + Gesprächseinstieg generieren
- CRM → Lead-Eintrag mit Informationen aktualisieren
Prompt:
Analysiere diese Informationen über einen potenziellen Kunden:
Website-Inhalt: {{$json.websiteContent}}
Unternehmen: {{$json.company}}
Erstelle:
1. Zusammenfassung (3 Sätze): Was macht das Unternehmen?
2. Branche und geschätzte Größe
3. Potenzielle Schmerzpunkte die unser [Produkt/Service] lösen könnte
4. Personalisierter Gesprächseinstieg (2 Sätze)
Workflow 6: Kundenfeedback-Analyse
Was er macht: Bewertungen aus verschiedenen Quellen sammeln → Sentiment analysieren → Themen clustern → Wöchentlichen Report erstellen.
Nodes:
- Schedule Trigger → Wöchentlich
- HTTP Request → Google Reviews, Trustpilot, etc. abrufen
- OpenAI → Sentiment-Analyse (positiv/neutral/negativ)
- OpenAI → Themen-Clustering (Was loben/kritisieren Kunden?)
- OpenAI → Executive Summary erstellen
- Email → Report per Mail an das Team
Output-Beispiel:
FEEDBACK-REPORT KW 13/2026
Gesamt: 47 Bewertungen
Positiv: 34 (72%) | Neutral: 8 (17%) | Negativ: 5 (11%)
Top-Themen (positiv):
1. Schneller Versand (18 Erwähnungen)
2. Produktqualität (12 Erwähnungen)
3. Kundenservice (8 Erwähnungen)
Top-Themen (negativ):
1. Verpackung (3 Erwähnungen)
2. Retouren-Prozess (2 Erwähnungen)
Empfehlung: Verpackung verbessern (3 negative Erwähnungen in einer Woche)
Workflow 7: Intelligenter Chatbot mit Wissensbasis
Was er macht: Webhook empfängt Chat-Nachrichten → AI Agent durchsucht Wissensbasis → Antwortet basierend auf deinen Dokumenten → Speichert Gespräch.
Nodes:
- Webhook → Chat-Nachricht empfangen
- AI Agent → Verarbeitung mit:
- Chat Model: GPT-4o oder Claude
- Vector Store: Deine Wissensbasis (Dokumente, FAQs)
- Memory: Gesprächsverlauf pro User
- Tools: HTTP Requests (für Live-Daten)
- Webhook Response → Antwort zurücksenden
- Google Sheets → Gespräch protokollieren
System-Prompt für den Agenten:
Du bist der Kundenservice-Assistent von [Firma].
Beantworte Fragen basierend auf der Wissensbasis.
Wenn du die Antwort nicht findest, sage ehrlich dass du
es nicht weißt und biete an, einen menschlichen Mitarbeiter
zu kontaktieren. Antworte auf Deutsch, freundlich und kurz.
Maximal 3 Sätze pro Antwort.
n8n einrichten: Schritt für Schritt
Option 1: n8n Cloud (Empfohlen für Einsteiger)
- Account erstellen: n8n.io → “Start Free”
- Workspace erstellen: Name wählen, Region EU
- Erster Workflow: “Create new workflow” klicken
- KI-Credentials: OpenAI API-Key → Settings → Credentials → Add Credential → OpenAI
- Ersten Node ziehen: “+” klicken → “OpenAI” suchen → hinzufügen
Kosten: Ab 20 EUR/Monat (Starter: 5 aktive Workflows, 2.500 Ausführungen).
Option 2: Self-Hosted (Empfohlen für Fortgeschrittene)
Per Docker (einfachste Methode):
docker run -it --rm \
--name n8n \
-p 5678:5678 \
-v n8n_data:/home/node/.n8n \
n8nio/n8n
Dann im Browser: http://localhost:5678
Per Docker Compose (für Produktion):
version: "3"
services:
n8n:
image: n8nio/n8n
ports:
- "5678:5678"
environment:
- N8N_BASIC_AUTH_ACTIVE=true
- N8N_BASIC_AUTH_USER=admin
- N8N_BASIC_AUTH_PASSWORD=dein-passwort
volumes:
- n8n_data:/home/node/.n8n
volumes:
n8n_data:
Kosten: Server ab 5 EUR/Monat (Hetzner CX22) + KI-API-Kosten.
API-Keys einrichten
Für KI-Workflows brauchst du mindestens einen API-Key:
| Dienst | Key erstellen | Kosten |
|---|---|---|
| OpenAI | platform.openai.com → API Keys | Pay-per-use (~0,01-0,03$/1K Tokens) |
| Anthropic | console.anthropic.com → API Keys | Pay-per-use (~0,003-0,015$/1K Tokens) |
| Ollama | Kein Key nötig (lokal) | 0 EUR (nur Strom + Server) |
Best Practices für KI-Workflows
1. Error Handling einbauen
KI-APIs können fehlschlagen (Rate Limits, Timeouts). Baue immer einen Error-Handler ein:
- Retry: Bei temporären Fehlern (429 Rate Limit) automatisch wiederholen
- Fallback: Wenn OpenAI ausfällt, auf Claude umschalten
- Notification: Bei kritischen Fehlern Slack/E-Mail-Benachrichtigung
2. Kosten im Blick behalten
KI-API-Kosten können sich schnell summieren. Tipps:
- Günstigere Modelle für einfache Aufgaben: GPT-4o-mini statt GPT-4o für Klassifizierung
- Caching: Gleiche Anfragen cachen statt doppelt bezahlen
- Token-Limits setzen: Max. Output-Tokens begrenzen
- Monitoring: Monatliche API-Kosten im Dashboard prüfen
3. Prompts versionieren
Speichere deine Prompts in Google Sheets oder einer Datenbank. So kannst du:
- Verschiedene Versionen testen
- Änderungen nachverfolgen
- Prompts teamweit standardisieren
4. Menschliche Überprüfung einbauen
Für kritische Workflows: Füge einen manuellen Genehmigungsschritt ein. n8n hat dafür den “Wait”-Node der pausiert bis ein Mensch genehmigt.
5. Datenschutz beachten
- Keine personenbezogenen Daten über Cloud-KI-APIs schicken (oder anonymisieren)
- Bei sensiblen Daten: Ollama (lokal) statt OpenAI/Anthropic
- API-Keys sicher speichern (n8n Credentials, nicht im Workflow-Text)
- Workflows mit Kundendaten dokumentieren (DSGVO-Verarbeitungsverzeichnis)
n8n vs. Alternativen für KI-Workflows
| Kriterium | n8n | Make | Zapier | Activepieces |
|---|---|---|---|---|
| KI-Integration | Exzellent | Gut | Basis | Gut |
| AI Agent | Native Node | Manuell | Nein | Begrenzt |
| Self-Hosting | Ja | Nein | Nein | Ja |
| Preis-Leistung | Sehr gut | Gut | Teuer | Sehr gut |
| Lernkurve | Mittel | Niedrig | Sehr niedrig | Mittel |
| Community | Groß + aktiv | Groß | Sehr groß | Klein |
| Komplexe Workflows | Unbegrenzt | Gut | Begrenzt | Gut |
Empfehlung:
- Einsteiger ohne Technik-Background: Make oder Zapier
- Fortgeschrittene mit KI-Fokus: n8n (Cloud oder Self-Hosted)
- Maximale Kontrolle + Budget-bewusst: n8n Self-Hosted
- Open-Source-Alternative: Activepieces
Fortgeschrittene Konzepte
KI-Agenten mit Tools
Ein KI-Agent in n8n kann externe Tools nutzen – zum Beispiel eine Google-Suche durchführen, einen Kalender prüfen oder eine Datenbank abfragen. Du definierst welche Tools der Agent nutzen darf und er entscheidet selbst wann er sie einsetzt.
Beispiel-Tools für Agenten:
- HTTP Request (beliebige APIs aufrufen)
- Calculator (Berechnungen durchführen)
- Google Calendar (Termine prüfen/erstellen)
- SQL (Datenbank abfragen)
- Custom Functions (eigene JavaScript-Logik)
Memory und Kontext
Der Memory-Node speichert den Gesprächsverlauf eines Nutzers. So kann der KI-Agent sich an vorherige Nachrichten erinnern und kontextbezogen antworten.
Memory-Optionen:
- Buffer Memory: Speichert die letzten X Nachrichten (einfach, schnell)
- Vector Store Memory: Speichert semantisch in einem Vector Store (für lange Gesprächsverläufe)
- Postgres/Redis: Persistente Speicherung für Produktiv-Systeme
Structured Output
Mit dem Output Parser erzwingst du dass die KI-Antwort ein bestimmtes Format hat (JSON, Liste, Tabelle). Perfekt wenn der nächste Node strukturierte Daten erwartet.
Beispiel: Statt Freitext bekommst du:
{
"kategorie": "ANFRAGE",
"dringlichkeit": "hoch",
"zusammenfassung": "Kunde fragt nach Lieferzeit",
"empfohlene_aktion": "Standardantwort mit Lieferzeit senden"
}
Weiterlesen:
- KI-Automatisierung: Workflows die dir Stunden sparen
- Die besten KI-Tools 2026: Der ultimative Vergleich
- ChatGPT-Alternativen: Diese 7 Tools solltest du kennen
- KI und Datenschutz: Was du 2026 wissen musst
n8n
No-Code/Low-Code Workflow-Automatisierung (Open Source)
Häufige Fragen
Brauche ich Programmierkenntnisse für n8n?
Nein, nicht für den Einstieg. n8n hat einen visuellen Workflow-Editor wo du Nodes per Drag-and-Drop verbindest. Für komplexe Transformationen hilft JavaScript-Grundwissen, ist aber nicht zwingend nötig.
Was kostet n8n?
n8n Cloud: Ab 20 EUR/Monat (Starter). Self-Hosted: Komplett kostenlos (Open Source). Du brauchst nur einen Server (ab 5 EUR/Monat bei Hetzner oder DigitalOcean). Dazu kommen API-Kosten der KI-Dienste.
n8n vs. Make vs. Zapier – was ist besser für KI?
n8n hat den besten KI-Support: Native OpenAI/Anthropic-Nodes, einen AI Agent Node, Vektor-Store-Integration und Memory-Nodes. Make hat gute KI-Module aber weniger Flexibilität. Zapier ist am einfachsten aber am teuersten und am wenigsten flexibel für KI.
Kann n8n auch lokale KI-Modelle nutzen?
Ja. Über den Ollama-Node kannst du lokale Modelle (Llama 3, Mistral, etc.) direkt in n8n-Workflows einbinden. Perfekt für datenschutzsensible Anwendungen ohne Cloud-Abhängigkeit.
Wie viele Workflows kann ich mit n8n laufen lassen?
Self-Hosted: Unbegrenzt (begrenzt nur durch Server-Ressourcen). Cloud Starter: 5 aktive Workflows. Cloud Pro: 50 aktive Workflows. Für die meisten kleinen Unternehmen reichen 10-20 Workflows.
