Flowise KI-Agenten-Builder

Setzen Sie Flowise auf Clore.ai ein — erstellen und hosten Sie visuelle LLM-Chatbots, KI-Agenten und RAG-Pipelines auf kostengünstigen GPU-Cloud-Servern mit Drag-and-Drop-No-Code-Oberfläche und sofortigen API-Endpunkten.

Überblick

Flowisearrow-up-right ist ein Open-Source-Drag-and-Drop-Tool zum Erstellen von LLM-gestützten Anwendungen ohne Programmierung. Mit über 35.000 GitHub-Sternen und mehr als 5 Millionen Docker Hub-Downloadsist Flowise zu einem der am häufigsten eingesetzten selbstgehosteten KI-Tools im Ökosystem geworden. Es ermöglicht Teams, Chatbots, RAG-Systeme, KI-Agenten und automatisierte Workflows über eine intuitive visuelle Oberfläche zu erstellen — und diese innerhalb von Minuten als REST-API-Endpunkte bereitzustellen.

Flowise basiert auf LangChain.js und bietet eine nodenbasierte Arbeitsfläche, auf der Sie Komponenten verbinden: LLMs, Vektordatenbanken, Dokumenten-Loader, Speichermodule für Memory, Werkzeuge und Agenten. Jeder Flow erzeugt automatisch ein einbettbares Chat-Widget und einen API-Endpunkt, den Sie in jede Anwendung integrieren können.

Wesentliche Funktionen:

  • Drag-and-Drop-Flow-Builder — Visuelle LLM-Orchestrierung mit 100+ vorgefertigten Nodes

  • Chatbot-Erstellung — Einbettbare Chat-Widgets für Websites und Apps

  • RAG-Pipelines — Verbinden Sie Dokumenten-Loader, Embedders und Vektorspeicher visuell

  • Multi-Agenten-Unterstützung — Erstellen Sie Agentenhierarchien mit Tool-Einsatz und Delegation

  • Sofortige API — Jeder Flow erzeugt einen /api/v1/prediction/<flowId> Endpunkt

  • LangChain-Nodes — Voller Zugriff auf das LangChain.js-Ökosystem

  • Credential-Manager — Zentrale Verwaltung von API-Schlüsseln, Datenbankverbindungen

Warum Clore.ai für Flowise?

Flowise ist ein leichtgewichtiger Node.js-Server — er übernimmt Orchestrierung, nicht die Rechenlast. Die Kombination mit Clore.ai ermöglicht:

  • Lokale Modellausführung — Führen Sie Ollama oder vLLM auf demselben GPU-Server aus und eliminieren Sie API-Kosten

  • Private Dokumentenverarbeitung — RAG-Pipelines, die Daten niemals an externe Dienste senden

  • Persistente Bereitstellung — Dauerhaftes Hosting von Chatbot und API zu GPU-Serverpreisen

  • Kosteneffizient im großen Maßstab — Bauen Sie Multi-Tenant-Chatbot-Plattformen ohne kostenpflichtige API-Aufrufe pro Request

  • Full-Stack-KI-Hosting — Flowise + Ollama + Qdrant/Chroma alles auf einem erschwinglichen Server


Anforderungen

Flowise selbst ist eine Node.js-Anwendung mit minimalen Ressourcenanforderungen. Eine GPU ist nur erforderlich, wenn Sie ein lokales LLM-Backend hinzufügen.

Konfiguration
GPU
VRAM
RAM
Speicher
Geschätzter Preis

Nur Flowise (externe APIs)

Keine

2–4 GB

10 GB

~$0.03–0.08/Stunde

+ Ollama (Llama 3.1 8B)

RTX 3090

24 GB

16 GB

40 GB

~$0.20/Stunde

+ Ollama (Mistral 7B + Embeddings)

RTX 3090

24 GB

16 GB

30 GB

~$0.20/Stunde

+ Ollama (Qwen2.5 32B)

RTX 4090

24 GB

32 GB

60 GB

~$0.35/Stunde

+ vLLM (Produktion)

A100 80GB

80 GB

64 GB

100 GB

~$1.10/Stunde

Hinweis: Flowise läuft komfortabel auf jedem Clore.ai-Server. Eine GPU ist nur nötig, wenn Sie lokale Inferenz ohne externe APIs wünschen. Siehe die GPU-Vergleichsanleitung.

Clore.ai-Serveranforderungen:

  • Docker Engine (auf allen Clore.ai-Images vorinstalliert)

  • NVIDIA Container Toolkit (nur für GPU/Ollama)

  • Port 3000 zugänglich (oder im Clore.ai-Dashboard gemappt)

  • Mindestens 2 GB freier RAM, 10 GB Festplattenspeicher


Schnellstart

Schritt 1: Buchen Sie einen Server bei Clore.ai

Im Clore.ai-Marktplatzarrow-up-right:

  • Für ausschließliche API-Nutzung: Jeder Server, filtern Sie nach RAM ≥ 4 GB

  • Für lokales LLM: Filter GPU ≥ 24 GB VRAM

  • Stellen Sie sicher, dass Docker in der Vorlage aktiviert ist

Verbinden Sie sich per SSH:

Schritt 2: Flowise starten (ein Befehl)

Das war's. Flowise ist erreichbar unter http://<server-ip>:3000 in 20–30 Sekunden.

Schritt 3: Prüfen, ob es läuft

Schritt 4: Öffnen Sie die UI

Navigieren Sie zu http://<server-ip>:3000 in Ihrem Browser.

Clore.ai Port-Mapping: Stellen Sie sicher, dass Port 3000 in Ihrer Clore.ai-Serverkonfiguration weitergeleitet wird. Gehen Sie zu Serverdetails → Ports → bestätigen Sie, 3000:3000 ist gemappt. Einige Vorlagen exponieren standardmäßig nur SSH.


Konfiguration

Persistenter Speicher

Mounten Sie Volumes, damit Ihre Flows, Anmeldeinformationen und Uploads Container-Neustarts überleben:

Authentifizierung

Schützen Sie Ihre Flowise-Instanz mit Benutzername/Passwort:

Sicherheitshinweis: Setzen Sie immer Anmeldeinformationen, wenn Sie Flowise öffentlich auf Clore.ai exponieren. Ohne Authentifizierung kann jeder mit Ihrer Server-IP auf Ihre Flows und API-Schlüssel zugreifen.

Vollständige Referenz der Umgebungsvariablen

Variable
Beschreibung
Standard

PORT

Webserver-Port

3000

FLOWISE_USERNAME

Admin-Benutzername (aktiviert Authentifizierung)

— (keine Authentifizierung)

FLOWISE_PASSWORD

Admin-Passwort

FLOWISE_SECRETKEY_OVERWRITE

Verschlüsselungsschlüssel für Anmeldeinformationen

Automatisch generiert

DATABASE_TYPE

sqlite oder mysql oder postgres

sqlite

DATABASE_PATH

SQLite-Speicherpfad

/root/.flowise

LOG_LEVEL

error, warn, info, debug

info

TOOL_FUNCTION_BUILTIN_DEP

Erlaubte Node.js-Builtins in Code-Nodes

TOOL_FUNCTION_EXTERNAL_DEP

Erlaubte npm-Pakete in Code-Nodes

CORS_ORIGINS

Erlaubte CORS-Ursprünge für die API

*

IFRAME_ORIGINS

Erlaubte Ursprünge für iframe-Einbettungen

*

Docker Compose (empfohlen)

Das offizielle Flowise-Repo enthält eine Docker Compose-Konfiguration. Dies ist der empfohlene Ansatz für Clore.ai:

Oder erstellen Sie Ihre eigene mit PostgreSQL:


GPU-Beschleunigung (Integration lokaler LLMs)

Flowise orchestriert — die GPU übernimmt die schwere Arbeit in verbundenen Diensten.

Flowise + Ollama (empfohlen)

Führen Sie Ollama auf demselben Clore.ai-Server aus und verbinden Sie Flowise damit:

Im Flowise-UI:

  1. Erstellen Sie einen neuen Chatflow

  2. Hinzufügen Ollama Node (unter Chat Models)

    • Basis-URL: http://host.docker.internal:11434

    • Modellname: llama3.1:8b

  3. Hinzufügen OllamaEmbeddings Node (für RAG)

    • Basis-URL: http://host.docker.internal:11434

    • Modellname: nomic-embed-text

  4. Verbinden Sie Ihren Vektorspeicher (Chroma, FAISS, Qdrant)

Siehe die vollständige Ollama-Anleitung für Modelldownload und GPU-Setup.

Flowise + vLLM (Produktionsskala)

Für OpenAI-kompatible Hochdurchsatz-Bereitstellung:

Siehe die vLLM-Anleitung für Quantisierung und Multi-GPU-Konfigurationen.

Einen rein lokalen RAG-Chatbot erstellen

Vollständiger Flowise-Flow ohne externe API-Aufrufe auf Clore.ai:

Knoten
Komponente
Einstellungen

1

PDF-Datei-Loader

Dokument hochladen

2

Rekursiver Text-Splitter

Chunk: 1000, Überlappung: 200

3

Ollama-Embeddings

Modell: nomic-embed-text

4

In-Memory-Vektorspeicher

(oder Chroma für Persistenz)

5

Ollama Chat

Modell: llama3.1:8b

6

Konversationelle Retrieval-QA

Kettentyp: Stuff

7

Puffer-Speicher (Buffer Memory)

Sitzungsbasierter Speicher

Exportieren Sie dies als API und betten Sie das Chat-Widget auf jeder Website ein.


Tipps & bewährte Methoden

1. Flows regelmäßig exportieren

Bevor Sie Clore.ai-Server stoppen oder wechseln:

2. Verwenden Sie das Embed-Widget

Jeder Flowise-Chatflow erzeugt ein produktionsbereites Chat-Widget:

  1. Öffnen Sie Ihren Chatflow → Klicken Sie </> auf die (Embed)-Schaltfläche

  2. Kopieren Sie das Skript-Snippet

  3. Fügen Sie es in jede HTML-Seite ein — sofortiger Kunden-Support-Bot

3. Verwalten Sie API-Schlüssel sicher

Speichern Sie alle LLM-API-Schlüssel im Credentials Panel von Flowise (nicht hartkodiert in Flows):

  • Menü → Credentials → Credential hinzufügen

  • Schlüssel werden verschlüsselt mit FLOWISE_SECRETKEY_OVERWRITE

4. Rate Limiting

Für öffentlich zugängliche Bereitstellungen fügen Sie Rate Limiting via Nginx oder Caddy vor Flowise hinzu:

5. Überwachen Sie die Performance

6. Sichern Sie die SQLite-Datenbank


Fehlerbehebung

Container beendet sich sofort

UI zeigt „Connection Failed“

Flows schlagen fehl mit LLM-Fehlern

Datenbank-Migrationsfehler beim Update

Fehler bei der Entschlüsselung von Anmeldeinformationen nach Neustart

CORS-Fehler beim Chat-Widget


Weiterführende Lektüre

Zuletzt aktualisiert

War das hilfreich?