Langflow Visueller KI-Builder

Setzen Sie Langflow auf Clore.ai ein — erstellen und betreiben Sie visuelle KI-Pipelines, RAG-Systeme und Multi-Agenten-Workflows auf erschwinglicher GPU-Cloud-Infrastruktur mit Drag-and-Drop-No-Code-Oberfläche.

Überblick

Langflowarrow-up-right ist eine Open-Source-, Low-Code-Plattform zum Erstellen von KI-Anwendungen mit einer visuellen Drag-and-Drop-Oberfläche. Mit über 55.000 GitHub-Sternen und einer rasant wachsenden Community ist sie eines der bevorzugten Tools zum Prototyping und Bereitstellen von LLM-gestützten Workflows, ohne komplexen Boilerplate-Code schreiben zu müssen.

Langflow baut auf LangChain auf und bietet einen grafischen Editor, in dem Sie Komponenten — LLMs, Vektor-Speicher, Dokumentenlader, Retriever, Agenten, Tools — durch Linien zwischen Knoten verbinden können. Die resultierende Pipeline kann als API-Endpunkt exportiert, als Vorlage geteilt oder in Ihre Anwendung eingebettet werden.

Wesentliche Funktionen:

  • Visueller RAG-Builder — Dokumentenlader → Embeddings → Vektor-Speicher → Retriever in Minuten verbinden

  • Multi-Agenten-Workflows — Mehrere KI-Agenten mit Memory, Tools und Entscheidungslogik verketten

  • LangChain-Integration — Zugriff auf das gesamte LangChain-Ökosystem über UI-Knoten

  • Komponenten-Marktplatz — Von der Community beigesteuerte Komponenten für dutzende Dienste

  • API-first — Jeder Flow generiert automatisch einen REST-API-Endpunkt

  • Memory und Zustand — Eingebautes Konversationsgedächtnis, Sitzungsverwaltung

Warum Clore.ai für Langflow?

Die Compute-Anforderungen von Langflow sind minimal — es handelt sich um einen Python-Webserver, der Workflow-Orchestrierung übernimmt. Clore.ai eröffnet jedoch leistungsstarke Einsatzmöglichkeiten:

  • Self-hosted Embeddings — Führen Sie lokale Embedding-Modelle (nomic-embed, BGE) auf GPU aus für schnelle, kostenlose Vektor-Generierung

  • Lokale LLM-Backends — Verbinden Sie Langflow mit Ollama oder vLLM, die auf demselben Server laufen

  • Private Datenpipelines — Verarbeiten Sie sensible Dokumente, ohne Daten an externe APIs zu senden

  • Kostenoptimierung — Ersetzen Sie teure OpenAI-Embedding-Aufrufe durch kostenlose lokale Inferenz

  • Persistente Workflows — Lang laufende Flows auf dedizierten Servern (vs. ephemeren Cloud-Funktionen)


Anforderungen

Langflow selbst ist leichtgewichtig und CPU-basiert. GPU ist optional, ermöglicht jedoch kostenlose lokale LLM-/Embedding-Inferenz.

Konfiguration
GPU
VRAM
RAM
Speicher
Geschätzter Preis

Nur Langflow (API-Backends)

Nicht erforderlich

4 GB

10 GB

~$0.03–0.08/Stunde

+ Lokale Embeddings (nomic-embed)

RTX 3090

24 GB

8 GB

20 GB

~$0.20/Stunde

+ Ollama (Llama 3.1 8B)

RTX 3090

24 GB

16 GB

40 GB

~$0.20/Stunde

+ Ollama (Qwen2.5 32B)

RTX 4090

24 GB

32 GB

60 GB

~$0.35/Stunde

+ vLLM (Produktions-RAG)

A100 80GB

80 GB

64 GB

100 GB

~$1.10/Stunde

Für einen Vergleich der GPU-Optionen auf Clore.ai siehe die GPU-Vergleichsanleitung.

Softwareanforderungen auf dem Clore.ai-Server:

  • Docker Engine (auf allen Clore.ai-Images vorinstalliert)

  • NVIDIA Container Toolkit (auf GPU-Images vorinstalliert, nur für lokale LLM erforderlich)

  • 10+ GB freier Festplattenspeicher für das Langflow-Image und Flow-Daten

  • Ausgehender Internetzugang (zum Herunterladen von Docker-Images und Erreichen externer APIs)


Schnellstart

Schritt 1: Verbindung zu Ihrem Clore.ai-Server herstellen

Buchen Sie einen Server auf Clore.ai-Marktplatzarrow-up-right. Für die ausschließliche Nutzung von Langflow eignet sich jeder Server mit ≥4 GB RAM. Verbinden Sie sich per SSH:

Schritt 2: Langflow mit Docker ausführen

Die einfachste Bereitstellung — Ein Befehl:

Warten Sie ca. 30–60 Sekunden auf den Start und greifen Sie dann zu auf http://<server-ip>:7860

Schritt 3: Port 7860 auf Clore.ai freigeben

Navigieren Sie im Clore.ai-Dashboard zu Ihrem Server → Bereich Ports → stellen Sie sicher, dass 7860 zugeordnet ist. Wenn Sie eine benutzerdefinierte Vorlage verwenden, fügen Sie 7860:7860 vor dem Starten des Servers Ihrer Port-Konfiguration hinzu.

Schritt 4: Erster Start

Beim ersten Besuch wird Langflow:

  1. Einen Willkommensbildschirm anzeigen und zur Erstellung eines Kontos auffordern (oder überspringen)

  2. Eine Auswahl an Starter-Vorlagen anbieten (RAG, Chatbot, Agent)

  3. Den visuellen Canvas-Editor öffnen

Sie sind bereit, Ihren ersten Flow zu erstellen!


Konfiguration

Persistente Datenspeicherung

Standardmäßig speichert Langflow Flows und Daten innerhalb des Containers. Mounten Sie ein Volume, um Daten über Neustarts hinweg zu behalten:

Referenz der Umgebungsvariablen

Variable
Beschreibung
Standard

LANGFLOW_HOST

Bind-Adresse

0.0.0.0

LANGFLOW_PORT

Webserver-Port

7860

LANGFLOW_DATABASE_URL

Datenbank-Verbindungszeichenfolge

SQLite im Speicher

LANGFLOW_SECRET_KEY

Session-Geheimnis (für Produktion setzen)

Zufällig

LANGFLOW_AUTO_LOGIN

Login-Bildschirm überspringen

true

LANGFLOW_SUPERUSER

Admin-Benutzername

admin

LANGFLOW_SUPERUSER_PASSWORD

Admin-Passwort

LANGFLOW_WORKERS

Anzahl der API-Worker

1

LANGFLOW_LOG_LEVEL

Logging-Detailstufe

kritisch

OPENAI_API_KEY

OpenAI-Schlüssel vorladen

Verwendung von PostgreSQL (Produktion)

Bei Multi-User- oder Produktions-Bereitstellungen verwenden Sie PostgreSQL statt SQLite:

Docker Compose (Full Stack)

Für eine vollständige Einrichtung mit PostgreSQL und Nginx-Reverse-Proxy:

Feste Version wählen

Für reproduzierbare Bereitstellungen eine spezifische Version festlegen:


GPU-Beschleunigung (Integration lokaler Modelle)

Langflow selbst läuft auf der CPU, aber durch die Verbindung mit lokalen, GPU-beschleunigten Diensten auf demselben Clore.ai-Server wird kostenlose, private Inferenz möglich.

Langflow mit Ollama verbinden

Verwenden Sie in der Langflow-UI die Ollama Komponente mit:

  • Basis-URL: http://host.docker.internal:11434

  • Modell: llama3.1:8b

Für Embeddings verwenden Sie die OllamaEmbeddings Komponente mit:

  • Basis-URL: http://host.docker.internal:11434

  • Modell: nomic-embed-text

Vollständige Ollama-Konfiguration: siehe die Ollama-Anleitung

Langflow mit vLLM (OpenAI-kompatibel) verbinden

Vollständige vLLM-Konfiguration: siehe die vLLM-Anleitung

Erstellen einer lokalen RAG-Pipeline

Beispiel-RAG-Flow, der nur lokale Modelle verwendet (keine API-Kosten):

  1. Datei-Lader Knoten → PDF-/Textdokumente laden

  2. Text-Splitter Knoten → Dokumente in Stücke teilen (Größe: 512, Überlappung: 50)

  3. OllamaEmbeddings Knoten → Embeddings erzeugen (Modell: nomic-embed-text)

  4. Chroma oder FAISS Knoten → Vektoren lokal speichern

  5. OllamaEmbeddings Knoten → Die Anfrage des Benutzers einbetten

  6. Retriever Knoten → Top-k ähnliche Stücke finden

  7. Ollama Knoten → Antwort generieren (Modell: llama3.1:8b)

  8. Chat-Ausgabe Knoten → Antwort zurückgeben

Diese gesamte Pipeline läuft auf Ihrem Clore.ai-Server ohne externe API-Aufrufe.


Tipps & bewährte Methoden

1. Flows als Backups exportieren

Bevor Sie Ihren Clore.ai-Server stoppen, exportieren Sie Ihre Flows:

  • In der UI: Flows → Alle auswählen → Export → JSON herunterladen

  • Oder über die API: curl http://localhost:7860/api/v1/flows/

Speichern Sie sie in einem persistenten Volume oder laden Sie sie auf Ihren lokalen Rechner herunter.

2. Verwenden Sie die API zur Automatisierung

Jeder Langflow-Flow erzeugt einen API-Endpunkt. Starten Sie Flows programmgesteuert:

3. Sichern Sie Ihre Instanz

Für alles über lokales Testen hinaus:

4. Überwachen Sie den Speicherverbrauch

Langflow kann mit vielen aktiven Flows im Laufe der Zeit Speicher ansammeln:

5. Verwenden Sie Starter-Vorlagen

Langflow wird mit produktionsbereiten Vorlagen geliefert:

  • Basic RAG — Dokumenten-Q&A mit Vektor-Speicher

  • Memory-Chatbot — Konversationeller Agent mit Verlauf

  • Research Assistant — Websuche + LLM-Synthese

  • Zugriff über: Neuer Flow → Starter-Projekte

6. Komponenten-Caching

Aktivieren Sie Caching, um wiederholte Flow-Ausführungen zu beschleunigen:

  • In den Flow-Einstellungen: Aktivieren Sie "Cache" für teure Knoten (Embeddings, LLM-Aufrufe)

  • Besonders nützlich für RAG-Retrieval während der Entwicklung


Fehlerbehebung

Container startet nicht

UI lädt, aber Flows laufen nicht

Keine Verbindung zu Ollama möglich

Datenbankfehler beim Neustart

Langsame Flow-Ausführung

Admin-Passwort zurücksetzen


Weiterführende Lektüre

Zuletzt aktualisiert

War das hilfreich?