n8n KI-Workflows

Setzen Sie n8n auf Clore.ai ein — hosten Sie selbst eine leistungsstarke Plattform zur Automatisierung von KI-Workflows mit über 400 Integrationen und nativer LLM-Agentenunterstützung für Centbeträge pro Stunde.

Überblick

n8narrow-up-right ist eine Fair-Code-Workflow-Automatisierungsplattform mit 55K+ GitHub-Sternen. Im Gegensatz zu vollständig Closed-Source-Alternativen (Zapier, Make) ermöglicht n8n, den gesamten Stack selbst zu hosten — mit vollständiger Datenkontrolle — und bietet gleichzeitig native KI-Agenten-Funktionen, einen JavaScript-/Python-Code-Knoten und eine wachsende Bibliothek mit über 400 Integrationen.

An Clore.ai, n8n selbst läuft auf der CPU (keine GPU erforderlich), lässt sich jedoch kraftvoll mit GPU-beschleunigten Diensten wie Ollama oder vLLM kombinieren, die auf demselben Server laufen, und bietet Ihnen damit einen vollständig lokalen KI-Automatisierungs-Stack. Sie können eine produktive n8n-Instanz für unter 0,10–0,20 $/Std..

Wesentliche Funktionen:

  • 🔗 400+ Integrationen — Slack, GitHub, Google Sheets, Postgres, HTTP-Anfrage, Webhooks und vieles mehr

  • 🤖 KI-Agent-Knoten — eingebaute, von LangChain angetriebene Agenten mit Tool-Nutzung und Memory

  • 💻 Code-Knoten — beliebiges JavaScript oder Python inline in Workflows ausführen

  • 🔄 Vielfalt an Triggern — Webhooks, Cron-Zeitpläne, Datenbankabfragen, E-Mail, Queue-Ereignisse

  • 📊 Sub-Workflows — modulare, wiederverwendbare Workflow-Komponenten

  • 🔐 Zugangsdaten-Tresor — verschlüsselte Speicherung für API-Schlüssel und OAuth-Tokens

  • 🏠 Selbst gehostet — Ihre Daten verlassen niemals Ihren Server


Anforderungen

n8n ist eine Node.js-Anwendung, die als Docker-Image verpackt ist. Es ist Nur CPU — keine GPU für die Automatisierungs-Engine selbst erforderlich. Eine GPU wird nur nützlich, wenn Sie ein lokales LLM daneben betreiben (z. B. Ollama).

Konfiguration
GPU
VRAM
System-RAM
Festplatte
Clore.ai-Preis

Minimal (nur n8n)

Keine / CPU

2 GB

10 GB

~0,03 $/Std. (CPU)

Standard

Keine / CPU

4 GB

20 GB

~0,05 $/Std.

+ Lokales LLM (Ollama)

RTX 3090

24 GB

16 GB

60 GB

~$0.20/Stunde

+ Hochdurchsatz-LLM

A100 40 GB

40 GB

32 GB

100 GB

~0,80 $/Std.

KI-Starter-Kit (vollständig)

RTX 4090

24 GB

32 GB

100 GB

~$0.35/Stunde

Tipp: Der n8n Selbstgehostetes KI-Starter-Kitarrow-up-right bündelt n8n + Ollama + Qdrant + PostgreSQL in einem Docker-Compose-Stack. Siehe KI-Starter-Kit unten.


Schnellstart

1. Miete einen Clore.ai-Server

Melde dich an bei clore.aiarrow-up-right und deployen Sie einen Server:

  • Nur-CPU-Instanz wenn Sie nur n8n-Automatisierung benötigen

  • RTX 3090/4090 wenn Sie lokale LLMs über Ollama möchten

  • Port freigeben 5678 in den Port-Mapping-Einstellungen des Angebots

  • SSH-Zugriff aktivieren

2. Verbinden Sie sich mit dem Server

3. Option A — Minimaler Start mit einem einzelnen Container

Der schnellste Weg, n8n zum Laufen zu bringen:

Greifen Sie auf die UI zu unter http://<clore-server-ip>:5678

4. Option B — Docker Compose mit Postgres (Produktion)

Für den Produktionseinsatz ersetzen Sie das standardmäßige SQLite durch Postgres:


KI-Starter-Kit (empfohlen)

Der n8n Selbstgehostetes KI-Starter-Kitarrow-up-right ist der schnellste Weg zu einem vollständigen lokalen KI-Automatisierungs-Stack. Es liefert:

  • n8n — Workflow-Automatisierung

  • Ollama — lokale LLM-Inferenz (GPU oder CPU)

  • Qdrant — Vektordatenbank für RAG

  • PostgreSQL — persistenter Speicher

Dienste nach dem Start:

Dienst
URL

n8n UI

http://<ip>:5678

Ollama-API

http://<ip>:11434

Qdrant UI

http://<ip>:6333/dashboard

Hinweis: Ollama mit GPU erfordert das NVIDIA Container Toolkitarrow-up-right, das auf Clore.ai-Servern vorinstalliert ist.


Konfiguration

Referenz zu Umgebungsvariablen

n8n mit Ollama für KI-Agenten verbinden

Sobald Ollama auf demselben Server läuft:

  1. Fügen Sie in n8n eine neue Zugangsdaten-Konfiguration hinzu: Ollama-API

    • Basis-URL: http://ollama:11434 (bei Verwendung von Compose) oder http://localhost:11434

  2. Fügen Sie in einem Workflow einen KI-Agent Knoten

  3. Unter Chat-Modell, wählen Sie Ollama und wählen Sie Ihr Modell (z. B. llama3:8b)

  4. Fügen Sie Tools wie HTTP-Anfrage, Postgres, oder Code Knoten

  5. Ausführen!


Tipps & bewährte Methoden

Kostenoptimierung auf Clore.ai

Webhook-Zuverlässigkeit auf Clore.ai

Clore.ai-Server haben dynamische IPs. Wenn Ihre Webhooks nach einem Redeploy nicht mehr funktionieren:

Queue-Modus für Workflows mit hohem Volumen

Nützliche n8n-CLI-Befehle

Sicherheits-Härtung


Fehlerbehebung

n8n-Container beendet sich sofort

Webhooks geben 404 zurück

KI-Agent-Knoten kann Ollama nicht erreichen

"ENOSPC: kein Speicherplatz mehr auf dem Gerät"

Langsame Workflow-Ausführung


Weiterführende Lektüre

Zuletzt aktualisiert

War das hilfreich?