KI-Workflows in n8n mit Ollama und Claude auf einem VPS erstellen
Verbinden Sie n8n über zwei Wege mit KI-Modellen: Ollama für kostenlose lokale Inferenz und die Claude-API für Cloud-Intelligenz. Erstellen Sie einen Workflow zur Inhaltsklassifizierung mit beiden Optionen auf einem selbst gehosteten VPS.
n8n verfügt über native KI-Knoten, die auf LangChain basieren. Sie können ein lokales Modell über Ollama oder ein Cloud-Modell über die Claude-API einbinden. Beide Optionen werden auf die gleiche Weise verbunden: als Unterknoten innerhalb des AI-Agent-Knotens von n8n. Dieses Tutorial richtet beide Wege auf einem selbst gehosteten VPS ein, erstellt einen praktischen Workflow zur Inhaltsklassifizierung und zeigt Ihnen, wie Sie durch das Ändern eines einzigen Knotens zwischen lokaler und Cloud-Inferenz wechseln können.
Wenn Sie n8n noch nicht installiert haben, beginnen Sie mit unserer Anleitung zur Installation von n8n mit Docker Compose auf einem VPS.
Was benötigen Sie, bevor Sie KI zu n8n hinzufügen?
Sie brauchen eine laufende n8n-Instanz auf einem VPS mit Docker Compose, eine Domain mit TLS und SSH-Zugang. Für Ollama benötigen Sie mindestens 8 GB RAM auf Ihrem VPS, um kleine Modelle (7-8 Milliarden Parameter) auszuführen. Für Claude benötigen Sie einen Anthropic-API-Schlüssel. Für Ollama auf CPU ist kein GPU erforderlich, die Inferenz ist jedoch langsamer.
Checkliste der Voraussetzungen:
- Ein VPS mit mindestens 8 GB RAM (4 vCPU empfohlen). Ein Virtua Cloud VCS-8 eignet sich gut.
- n8n läuft über Docker Compose (siehe die n8n-Installationsanleitung)
- SSH-Zugang als Nicht-Root-Benutzer mit sudo
- Eine Domain, die auf Ihren VPS zeigt, mit konfiguriertem TLS (siehe unsere Anleitung zu Reverse Proxy und Authentifizierung)
- Für den Claude-Weg: ein Konto bei der Anthropic-Konsole mit einem API-Schlüssel
Wie fügen Sie Ollama zu Ihrem n8n-Docker-Compose-Stack hinzu?
Fügen Sie Ollama als Service in Ihrer bestehenden Docker-Compose-Datei hinzu, im selben Netzwerk wie n8n. n8n erreicht Ollama über das interne DNS von Docker und verwendet den Servicenamen als Hostnamen. Kein API-Schlüssel nötig. Ollama bleibt ausschließlich im internen Netzwerk und wird nie dem Internet ausgesetzt.
Öffnen Sie Ihre bestehende docker-compose.yml und fügen Sie den ollama-Service hinzu:
services:
# ... Ihr bestehender n8n-Service ...
ollama:
image: ollama/ollama:latest
container_name: ollama
restart: unless-stopped
volumes:
- ollama_data:/root/.ollama
networks:
- n8n-network
environment:
- OLLAMA_HOST=0.0.0.0
deploy:
resources:
limits:
memory: 6G
reservations:
memory: 4G
healthcheck:
test: ["CMD", "ollama", "ps"]
interval: 30s
timeout: 10s
retries: 3
volumes:
# ... Ihre bestehenden Volumes ...
ollama_data:
Wichtige Punkte zu dieser Konfiguration:
- Keine veröffentlichten Ports. Ollama lauscht auf Port 11434 innerhalb des Containers, aber wir mappen ihn nicht auf den Host. Nur Container im
n8n-networkkönnen darauf zugreifen. Das verhindert, dass jemand im Internet Ihre Ollama-Instanz nutzt. OLLAMA_HOST=0.0.0.0weist Ollama an, auf allen Schnittstellen innerhalb des Containers zu lauschen. Ohne diese Einstellung bindet es sich nur an localhost und n8n kann es von einem anderen Container aus nicht erreichen.- Speicherlimits verhindern, dass Ollama den gesamten VPS-RAM verbraucht. Passen Sie die Werte je nach Modellgröße an.
- Der Health Check verwendet
ollama ps, um den Server abzufragen. Docker startet den Container neu, wenn Ollama nicht mehr reagiert. Das Ollama-Image enthält keincurl, daher verwenden wir die integrierte CLI.
Wenn Ihr VPS über eine NVIDIA-GPU verfügt und Sie das NVIDIA Container Toolkit installiert haben, fügen Sie GPU-Passthrough hinzu:
ollama:
# ... gleiche Konfiguration wie oben, plus:
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: all
capabilities: [gpu]
Starten Sie den aktualisierten Stack:
docker compose up -d ollama
Überprüfen Sie, ob Ollama läuft:
docker compose logs ollama --tail 20
Die Ausgabe zeigt Listening on [::]:11434 sehen. Laden Sie nun ein Modell herunter:
docker compose exec ollama ollama pull llama3.2:3b
Damit wird das Llama-3.2-Modell mit 3 Milliarden Parametern heruntergeladen (ca. 2 GB). Für einen VPS mit 8 GB ist das der sicherste Ausgangspunkt. Weitere Optionen finden Sie in der Modellgrößentabelle weiter unten.
Überprüfen Sie, ob das Modell geladen wurde:
docker compose exec ollama ollama list
Testen Sie die Inferenz direkt:
docker compose exec ollama ollama run llama3.2:3b "Say hello in one sentence"
Die Ausgabe zeigt innerhalb weniger Sekunden eine Antwort erhalten. Wenn das funktioniert, ist Ollama bereit für n8n.
Welches Ollama-Modell sollten Sie für Ihren VPS wählen?
Das richtige Modell hängt von Ihrem verfügbaren RAM ab. Als Faustregel gilt: 1 Milliarde Parameter benötigt bei Q4-Quantisierung etwa 1 GB RAM. Auf einem VPS ohne GPU läuft das Modell auf der CPU, was langsamer, aber für Batch- und Hintergrund-Workflows funktional ist.
| Modell | Parameter | Festplattengröße | RAM-Bedarf | Geeignet für |
|---|---|---|---|---|
| llama3.2:3b | 3B | ~2 GB | 4 GB | Leichte Aufgaben, begrenzter RAM |
| llama3.1:8b | 8B | ~4,9 GB | 8 GB | Allgemein, 128K Kontext |
| mistral:7b | 7B | ~4,4 GB | 7 GB | Schnelle Inferenz, europäisches Modell |
| qwen2.5:7b | 7B | ~4,7 GB | 8 GB | Mehrsprachig, Coding-Aufgaben |
| gemma3:4b | 4B | ~3,3 GB | 5 GB | Multimodal, gutes Qualitäts-/Größenverhältnis |
Auf einem VPS mit 4 vCPU und 8 GB RAM (wie dem Virtua Cloud VCS-8) läuft llama3.2:3b mit Spielraum für n8n und das Betriebssystem. Die 7-8B-Modelle passen, lassen aber weniger Spielraum. Für diese empfiehlt sich ein VPS mit 16 GB.
Laden Sie Ihr gewähltes Modell herunter, bevor Sie fortfahren. Alle folgenden Schritte funktionieren mit jedem Modell aus der Tabelle.
Wie verbinden Sie n8n mit der Claude-API?
Erstellen Sie einen Anthropic-Berechtigungsnachweis in n8n mit Ihrem API-Schlüssel. Verwenden Sie dann den Anthropic-Chat-Model-Unterknoten in jedem AI-Agent-Workflow. n8n übernimmt die API-Aufrufe nativ. Kein HTTP-Request-Knoten nötig.
API-Schlüssel generieren
- Gehen Sie zu Anthropic Console > Settings > API Keys
- Klicken Sie auf Create Key
- Geben Sie einen erkennbaren Namen ein, z. B.
n8n-vps - Kopieren Sie den Schlüssel sofort. Sie werden ihn nicht erneut sehen.
Bewahren Sie den Schlüssel sicher auf. Fügen Sie ihn nicht in Dateien auf der Festplatte ein. Sie geben ihn direkt in den Credential-Manager von n8n ein, der ihn verschlüsselt.
Berechtigungsnachweis in n8n hinzufügen
- Gehen Sie in n8n zu Credentials in der linken Seitenleiste
- Klicken Sie auf Add Credential
- Suchen Sie nach Anthropic API
- Fügen Sie Ihren API-Schlüssel ein
- Klicken Sie auf Save
n8n testet die Verbindung beim Speichern. Die Ausgabe zeigt „Connection tested successfully" sehen. Wenn es fehlschlägt, prüfen Sie, ob Ihr API-Schlüssel gültig ist und ob Ihr VPS https://api.anthropic.com erreichen kann (ausgehende HTTPS-Verbindungen dürfen nicht durch Ihre Firewall blockiert sein).
Wie funktioniert das AI-Agent-System von n8n?
Die KI-Fähigkeiten von n8n basieren auf LangChain. Die Architektur verwendet zwei Arten von Knoten: Wurzelknoten (auch Cluster-Knoten genannt), die das Verhalten des Agenten definieren, und Unterknoten, die bestimmte Fähigkeiten wie Sprachmodell, Speicher und Werkzeuge bereitstellen. Das Verständnis dieser Struktur hilft beim Erstellen und Debuggen von Workflows.
Wurzelknoten:
- AI Agent: der Hauptorchestrator. Er empfängt Eingaben, sendet sie an das Sprachmodell, kann Werkzeuge nutzen und gibt eine Antwort zurück. Diesen werden Sie am häufigsten verwenden.
- Basic LLM Chain: einfacher als der Agent. Nimmt Eingaben entgegen, sendet sie an das LLM, gibt die Ausgabe zurück. Keine Werkzeugnutzung, keine Reasoning-Schleife.
Unterknoten (werden an Wurzelknoten angehängt):
- Chat Model (Ollama Chat Model oder Anthropic Chat Model): das LLM, das Antworten generiert
- Memory (Window Buffer Memory usw.): speichert den Gesprächsverlauf
- Tools (HTTP Request, Code, Calculator usw.): Aktionen, die der Agent ausführen kann
- Output Parser: strukturiert die LLM-Antwort in nutzbare Daten
Der entscheidende Punkt: Der Wechsel zwischen Ollama und Claude bedeutet, einen Unterknoten auszutauschen. Der Rest des Workflows bleibt identisch. Deshalb eignet sich die Architektur von n8n gut, um sowohl lokale als auch Cloud-Inferenz zu testen.
Wie erstellen Sie einen KI-Klassifizierungs-Workflow in n8n?
Dieser Workflow empfängt Inhalte über einen Webhook, sendet sie zur Klassifizierung und Zusammenfassung an ein LLM und leitet das Ergebnis basierend auf der Dringlichkeit weiter. Es ist ein praktisches Muster für E-Mail-Triage, Support-Ticket-Routing oder Inhaltsmoderation. Wir erstellen ihn zuerst mit Ollama und wechseln dann zu Claude.
Schritt 1: Den Webhook-Trigger erstellen
- Erstellen Sie einen neuen Workflow in n8n
- Fügen Sie einen Webhook-Knoten als Trigger hinzu
- Setzen Sie die HTTP-Methode auf
POST - Setzen Sie den Pfad auf etwas wie
classify - Wählen Sie unter Response die Option „Respond to Webhook" (diesen Knoten fügen wir später hinzu)
- Speichern Sie und notieren Sie die Test-Webhook-URL
Der Webhook empfängt JSON wie dieses:
{
"title": "Server disk full alert",
"body": "Production server db-01 has reached 95% disk usage. Immediate action required.",
"source": "monitoring"
}
Schritt 2: Den AI-Agent-Knoten mit Ollama hinzufügen
- Fügen Sie nach dem Webhook einen AI Agent-Knoten hinzu
- Setzen Sie in den Agent-Einstellungen den System-Prompt:
You are a content classifier. For each incoming message, respond with valid JSON only:
{
"urgency": "high" or "low",
"category": "infrastructure" or "security" or "billing" or "general",
"summary": "one sentence summary"
}
Do not include any text outside the JSON object.
-
Verbinden Sie einen Ollama Chat Model-Unterknoten mit dem Agent:
- Klicken Sie auf den Chat Model-Konnektor am AI-Agent-Knoten
- Wählen Sie Ollama Chat Model
- Klicken Sie im Credential-Dropdown auf Create New
- Setzen Sie die Base URL auf
http://ollama:11434(der Docker-Servicename) - Speichern Sie den Berechtigungsnachweis
- Wählen Sie Ihr Modell (z. B.
llama3.2:3b)
-
Verbinden Sie den Webhook-Ausgang mit dem AI-Agent-Eingang. Mappen Sie den Nachrichtentext mit einem Ausdruck:
Title: {{ $json.title }}
Body: {{ $json.body }}
Source: {{ $json.source }}
Schritt 3: Antwort parsen und weiterleiten
- Fügen Sie nach dem AI Agent einen IF-Knoten hinzu
- Setzen Sie die Bedingung: Prüfen Sie, ob die KI-Antwort
"urgency": "high"enthält, oder parsen Sie das JSON und prüfen Sie das Feldurgency - True-Branch (hohe Dringlichkeit): Fügen Sie einen Benachrichtigungsknoten hinzu (Slack, E-Mail oder HTTP Request an Ihren Alerting-Endpunkt)
- False-Branch (niedrige Dringlichkeit): Fügen Sie eine andere Aktion hinzu (in einer Tabelle protokollieren, Zusammenfassungs-E-Mail senden usw.)
- Fügen Sie am Ende jedes Branches einen Respond to Webhook-Knoten hinzu, um das Klassifizierungsergebnis zurückzugeben
Schritt 4: Den Workflow testen
Aktivieren Sie den Workflow zum Testen. Senden Sie eine Testanfrage:
curl -X POST https://your-n8n-domain.com/webhook-test/classify \
-H "Content-Type: application/json" \
-d '{
"title": "Server disk full alert",
"body": "Production server db-01 reached 95% disk usage. Immediate action required.",
"source": "monitoring"
}'
Prüfen Sie den Ausführungsverlauf von n8n. Die Ausgabe zeigt sehen:
- Der Webhook hat die Payload empfangen
- Der AI Agent hat sie an Ollama gesendet
- Ollama hat eine JSON-Klassifizierung zurückgegeben
- Der IF-Knoten hat zum richtigen Branch weitergeleitet
Schauen Sie genau auf die Ausführungszeit am AI-Agent-Knoten. Mit Ollama auf CPU (llama3.2:3b) rechnen Sie mit 3-8 Sekunden je nach VPS-Spezifikation. Das reicht für Hintergrundautomatisierung, ist aber zu langsam für Echtzeit-Antworten an Benutzer.
Wie verhält sich derselbe Workflow mit Ollama vs. Claude?
Der Wechsel von Ollama zu Claude dauert etwa 30 Sekunden. Die Workflow-Struktur bleibt identisch. Nur der Chat-Model-Unterknoten ändert sich.
- Klicken Sie auf den AI Agent-Knoten
- Löschen Sie den Ollama-Chat-Model-Unterknoten
- Fügen Sie stattdessen einen Anthropic Chat Model-Unterknoten hinzu
- Wählen Sie Ihren Anthropic-Berechtigungsnachweis
- Wählen Sie das Modell (z. B.
claude-sonnet-4-6) - Führen Sie denselben Test-curl-Befehl erneut aus
Vergleich nebeneinander:
| Aspekt | Ollama (llama3.2:3b, CPU) | Claude (claude-sonnet-4-6) |
|---|---|---|
| Antwortzeit | 3-8 Sekunden | 0,5-1,5 Sekunden |
| JSON-Formatierung | Fügt gelegentlich Text außerhalb des JSON hinzu | Befolgt JSON-only-Anweisungen zuverlässig |
| Klassifizierungsgenauigkeit | Gut bei eindeutigen Fällen | Besser bei mehrdeutigen oder nuancierten Inhalten |
| Kosten pro Anfrage | Kostenlos | Pro Token (siehe Anthropic-Preise) |
| Datenschutz | Inhalte verlassen nie Ihren VPS | Inhalte werden an Anthropics API gesendet |
Das Ausgabeformat ist identisch. Ihr IF-Knoten und die Routing-Logik müssen nicht geändert werden. Das macht es praktisch, Ollama für Entwicklung und Tests zu verwenden und dann für Produktions-Workflows, die Geschwindigkeit oder besseres Reasoning benötigen, zu Claude zu wechseln.
Wann sollten Sie ein lokales LLM statt einer Cloud-API verwenden?
Verwenden Sie Ollama, wenn Datenschutz wichtig ist, Sie keine API-Kosten wollen oder Batch-Jobs verarbeiten, bei denen Latenz akzeptabel ist. Verwenden Sie Claude, wenn Sie schnelle Antworten, starkes Reasoning oder Echtzeit-Workflows mit Benutzerkontakt benötigen. Sie können Modelle in n8n durch Ändern eines Unterknotens wechseln, es ist also keine endgültige Entscheidung.
Wählen Sie Ollama, wenn:
- Sensible Daten Ihre Infrastruktur nicht verlassen dürfen (Patientenakten, Finanzdaten, interne Dokumente)
- Sie Batch-Verarbeitung durchführen, bei der einige Sekunden pro Anfrage in Ordnung sind (nächtliche E-Mail-Zusammenfassungen, Log-Analyse)
- Sie vorhersagbare Kosten wollen. Nach den VPS-Kosten ist die Inferenz kostenlos, egal wie viele Anfragen
- Sie Prototypen erstellen und schnell iterieren, ohne sich um API-Rechnungen zu sorgen
Wählen Sie Claude, wenn:
- Sie Antworten unter einer Sekunde für benutzerseitige Funktionen benötigen (Chatbots, Echtzeit-Klassifizierung)
- Die Aufgabe starkes Reasoning oder nuanciertes Verständnis erfordert (Analyse juristischer Dokumente, komplexe Zusammenfassung)
- Sie ein geringes Volumen hochrelevanter Anfragen verarbeiten, bei denen Qualität wichtiger ist als Kosten
- Sie sehr lange Kontextfenster benötigen (Claude Sonnet unterstützt bis zu 1M Token)
Hybridansatz: Viele Produktionsumgebungen nutzen beides. Leiten Sie einfache, volumenstarke Aufgaben an Ollama weiter. Leiten Sie komplexe, volumenarme Aufgaben an Claude weiter. Der IF-Knoten von n8n kann die eingehenden Daten inspizieren und den richtigen Pfad wählen.
Wie fügen Sie RAG mit Qdrant zu Ihrem n8n-KI-Workflow hinzu?
RAG (Retrieval-Augmented Generation) ermöglicht Ihrem KI-Workflow, vor dem Generieren einer Antwort in Ihren eigenen Dokumenten zu suchen. Fügen Sie Qdrant als Vektorspeicher zu Ihrem Docker-Compose-Stack hinzu. n8n verfügt über native Qdrant-Knoten, die sich als Werkzeug mit dem AI Agent verbinden.
Fügen Sie Qdrant zu Ihrer docker-compose.yml hinzu:
qdrant:
image: qdrant/qdrant:latest
container_name: qdrant
restart: unless-stopped
volumes:
- qdrant_data:/qdrant/storage
networks:
- n8n-network
environment:
- QDRANT__SERVICE__API_KEY=${QDRANT_API_KEY}
volumes:
qdrant_data:
Generieren Sie einen starken API-Schlüssel für Qdrant:
openssl rand -base64 32
Fügen Sie den Schlüssel zu Ihrer .env-Datei hinzu:
QDRANT_API_KEY=<your-generated-key>
Setzen Sie restriktive Berechtigungen für die .env-Datei:
chmod 600 .env
Starten Sie Qdrant:
docker compose up -d qdrant
In n8n können Sie jetzt:
- Einen Qdrant Vector Store-Knoten als Werkzeug für den AI Agent hinzufügen
- Einen Ollama Embeddings-Unterknoten (oder ein anderes Embedding-Modell) erstellen, um Ihre Dokumente zu vektorisieren
- Einen Ingestion-Workflow erstellen, der Dokumente in Qdrant lädt
- Der AI Agent sucht vor dem Generieren seiner Antwort in Qdrant nach relevantem Kontext
RAG ist ein umfangreiches Thema. Eine vollständige Anleitung finden Sie in unserem Guide zum Self-Hosting von KI-Agenten auf einem VPS. Das n8n Self-Hosted AI Starter Kit bündelt n8n, Ollama, Qdrant und PostgreSQL in einer einzigen Docker-Compose-Datei. Es ist eine gute Referenz für die RAG-Architektur, auch wenn es eher für Proof-of-Concept als für Produktion konzipiert ist.
Welche Ressourcenanforderungen haben KI-Workflows auf einem VPS?
Ollama auf einem VPS zu betreiben erfordert genügend RAM für das Modell plus das Betriebssystem und andere Dienste. n8n selbst verbraucht etwa 300-500 MB. Der Docker-Overhead fügt weitere 200-300 MB hinzu. Der Rest geht an Ollama und das gewählte Modell. Die CPU-Anzahl beeinflusst die Inferenzgeschwindigkeit, aber nicht, ob das Modell geladen wird.
Tabelle zur Ressourcenplanung:
| VPS-Größe | Verfügbar für Ollama | Bestes Modell | Workflow-Typ |
|---|---|---|---|
| 4 GB RAM | ~2,5 GB | llama3.2:3b (knapp) | Nur leichte Klassifizierung |
| 8 GB RAM | ~5-6 GB | llama3.2:3b oder mistral:7b | Allgemeine Automatisierung |
| 16 GB RAM | ~12-13 GB | llama3.1:8b oder qwen2.5:14b | Komplexe Agenten, RAG |
| 32 GB RAM | ~28 GB | Mehrere Modelle geladen | Produktions-Multi-Agent |
Wenn Sie nur den Claude-API-Weg verwenden (ohne Ollama), reicht ein VPS mit 4 GB für n8n. Das LLM läuft auf Anthropics Infrastruktur.
Überwachen Sie die Ressourcennutzung nach dem Deployment:
docker stats --no-stream
Das zeigt CPU- und Speicherverbrauch pro Container. Beobachten Sie den Ollama-Container während der Inferenz. Die Speichernutzung steigt bei der Verarbeitung einer Anfrage und fällt danach wieder ab.
Prüfen Sie die Ollama-Logs auf Performance-Probleme:
docker compose logs ollama --tail 50
Wenn Sie Out-of-Memory-Fehler sehen, wechseln Sie zu einem kleineren Modell oder erhöhen Sie den RAM Ihres VPS.
Fehlerbehebung
n8n kann sich nicht mit Ollama verbinden:
- Prüfen Sie, ob beide Container im selben Docker-Netzwerk sind:
docker network inspect n8n-network - Prüfen Sie, ob die Ollama-Credential-Base-URL
http://ollama:11434ist (nichtlocalhost) - Prüfen Sie, ob Ollama läuft:
docker compose exec ollama ollama ps - Prüfen Sie, ob
OLLAMA_HOST=0.0.0.0in der Ollama-Umgebung gesetzt ist
Ollama ist langsam oder reagiert nicht:
- Prüfen Sie den Speicher:
docker stats ollama - Versuchen Sie ein kleineres Modell. Die 3B-Modelle sind auf CPU deutlich schneller als die 8B-Modelle.
- Wenn die Inferenz länger als 30 Sekunden dauert, ist das Modell wahrscheinlich zu groß für Ihren RAM. Ollama lagert auf die Festplatte aus, was die Performance zerstört.
Die Claude-API gibt Fehler zurück:
- Prüfen Sie Ihren API-Schlüssel in den n8n-Credentials (geben Sie ihn bei Bedarf erneut ein)
- Prüfen Sie ausgehendes HTTPS von Ihrem VPS:
curl -I https://api.anthropic.com - Sehen Sie sich das n8n-Ausführungsprotokoll auf die spezifische Fehlermeldung an. Häufige Probleme: abgelaufener Schlüssel, Rate-Limit, unzureichendes Guthaben.
Der AI Agent gibt wirre oder nicht-JSON-Ausgabe zurück:
- Verbessern Sie den System-Prompt. Seien Sie explizit bezüglich des Ausgabeformats.
- Claude befolgt Formatierungsanweisungen zuverlässiger als kleine lokale Modelle.
- Fügen Sie einen Output Parser-Unterknoten (Structured Output Parser) hinzu, um ein JSON-Schema zu erzwingen.
- Bei Ollama befolgen größere Modelle (8B+) Anweisungen besser als 3B-Modelle.
Wo sind die Logs?
# n8n logs
docker compose logs n8n --tail 100
# Ollama logs
docker compose logs ollama --tail 100
# All services
docker compose logs --tail 50
n8n speichert den Ausführungsverlauf auch in seiner Web-Oberfläche unter Executions in der linken Seitenleiste. Jede Ausführung zeigt die Ein-/Ausgabe jedes Knotens, was der schnellste Weg ist, Workflow-Probleme zu debuggen.
Copyright 2026 Virtua.Cloud. Alle Rechte vorbehalten. Dieser Inhalt ist ein Originalwerk des Virtua.Cloud-Teams. Vervielfältigung, Wiederveröffentlichung oder Weiterverbreitung ohne schriftliche Genehmigung ist untersagt.
Bereit, es selbst auszuprobieren?
Hosten Sie n8n mit KI-Integrationen auf Ihrem VPS.
VPS-Angebote ansehen