Dify.ai Workflow-Plattform

Setzen Sie Dify.ai auf Clore.ai ein — erstellen Sie produktionsreife KI-Workflows, RAG-Pipelines und Agenten-Anwendungen mit einer visuellen Oberfläche zu GPU-Cloud-Preisen.

Überblick

Dify.aiarrow-up-right ist eine Open-Source-Plattform zur Entwicklung von LLM-Anwendungen mit 114K+ GitHub-Sternen. Sie kombiniert einen visuellen Workflow-Builder, eine retrieval-augmented generation (RAG)-Pipeline, Agenten-Orchestrierung, Modellverwaltung und eine Ein-Klick-API-Bereitstellungsschicht in einem einzigen selbst hostbaren Stack.

An Clore.ai Sie können den vollständigen Dify-Stack — einschließlich seiner Postgres-Datenbank, Redis-Cache, Weaviate-Vektorstore, Nginx-Reverse-Proxy, API-Worker und Web-Frontend — auf einem gemieteten GPU-Server für bereits 0,20–0,35 $/Std. (RTX 3090/4090). Die GPU ist für Dify selbst optional, wird jedoch essenziell, wenn Sie lokale Modellinferenz über Ollama- oder vLLM-Backends integrieren.

Wesentliche Funktionen:

  • 🔄 Visueller Workflow-Builder — Drag-and-Drop-LLM-Pipelines mit Verzweigungen, Schleifen und bedingter Logik

  • 📚 RAG-Pipeline — PDFs, URLs, Notion-Seiten hochladen; Chunking + Embedding + Retrieval alles in der UI verwaltet

  • 🤖 Agentenmodus — ReAct- und Function-Calling-Agenten mit Tool-Nutzung (Websuche, Code-Interpreter, benutzerdefinierte APIs)

  • 🚀 API-first — jede App generiert sofort einen REST-Endpunkt und SDK-Snippets

  • 🔌 100+ Modellintegrationen — OpenAI, Anthropic, Mistral, Cohere sowie lokale Modelle über Ollama/vLLM

  • 🏢 Multi-Tenant — Teams, Workspaces, RBAC, Nutzungskontingente


Anforderungen

Dify läuft als Multi-Container-Docker-Compose-Stack. Der minimal brauchbare Server für die Entwicklung ist eine reine CPU-Instanz; für den produktiven Betrieb mit lokaler Modellinferenz benötigen Sie einen GPU-Knoten.

Konfiguration
GPU
VRAM
System-RAM
Festplatte
Clore.ai-Preis

Minimal (Nur API-Schlüssel)

Keine / CPU

8 GB

30 GB

~0,05 $/Std. (CPU)

Standard

RTX 3080

10 GB

16 GB

50 GB

~0,15 $/Std.

Empfohlen

RTX 3090 / 4090

24 GB

32 GB

80 GB

0,20–0,35 $/Std.

Produktion + lokale LLM

A100 80 GB

80 GB

64 GB

200 GB

~$1.10/Stunde

Hoher Durchsatz

H100 SXM

80 GB

128 GB

500 GB

~2,50 $/Std.

Tipp: Wenn Sie nur Cloud-API-Anbieter (OpenAI, Anthropic usw.) verwenden, reicht jede 2-Kern-CPU-Instanz mit 8 GB RAM. Eine GPU ist nur relevant, wenn Sie lokale Modelle über Ollama oder vLLM betreiben — siehe GPU-Beschleunigung unten.

Hinweis zur Festplatte

Weaviate- und Postgres-Daten wachsen schnell mit Dokumenten-Uploads. Stellen Sie mindestens 50 GB bereit und binden Sie persistente Speicherung über Clore.ais Volume-Optionen ein.


Schnellstart

1. Miete einen Clore.ai-Server

Navigieren Sie zu clore.aiarrow-up-right, filtern Sie nach Ihrer gewünschten GPU und stellen Sie einen Server mit bereit:

  • Docker vorinstalliert (alle Clore-Images enthalten es)

  • Offengelegte Ports 80 und 443 (fügen Sie bei Bedarf benutzerdefinierte Ports in den Angebots-Einstellungen hinzu)

  • SSH-Zugriff aktiviert

2. Verbinden und Server vorbereiten

3. Dify klonen und starten

4. Überprüfen, ob alle Dienste gesund sind

5. Zugriff auf die Weboberfläche

Öffnen Sie Ihren Browser und navigieren Sie zu:

Beim ersten Start leitet Dify Sie zum Setup-Assistenten weiter, um das Admin-Konto zu erstellen. Schließen Sie den Assistenten ab und melden Sie sich dann an.


Konfiguration

Alle Konfigurationen befinden sich in dify/docker/.env. Hier sind die wichtigsten Einstellungen:

Wesentliche Umgebungsvariablen

Ändern des offengelegten Ports

Standardmäßig lauscht Nginx auf Port 80. Um ihn zu ändern:

Persistente Datenvolumes

Difys Compose-Datei mountet diese Volumes standardmäßig:

Zum Sichern:


GPU-Beschleunigung

Difys Kernplattform ist CPU-basiert, aber Sie schalten lokale Modellinferenz frei, indem Sie Ollama oder vLLM als Modellanbieter integrieren — beide profitieren enorm von einer GPU.

Option A: Ollama-Sidecar (einfachste Variante)

Führen Sie Ollama zusammen mit Dify auf demselben Clore-Server aus:

Dann in Dify UI → Einstellungen → Modellanbieter → Ollama:

  • Basis-URL: http://localhost:11434

  • Wählen Sie Ihr Modell und speichern Sie

Für eine vollständige Ollama-Anleitung siehe language-models/ollama.md.

Option B: vLLM-Sidecar (hoher Durchsatz)

Dann in Dify UI → Einstellungen → Modellanbieter → OpenAI-kompatibel:

  • Basis-URL: http://localhost:8000/v1

  • API-Schlüssel: dummy

  • Modellname: mistralai/Mistral-7B-Instruct-v0.2

Für die vollständige vLLM-Einrichtung siehe language-models/vllm.md.

Empfehlungen für GPU-Speicher bei lokalen Modellen

Modell
Benötigter VRAM
Empfohlene Clore-GPU

Llama 3 8B (Q4)

6 GB

RTX 3060

Llama 3 8B (FP16)

16 GB

RTX 3090 / 4090

Mistral 7B (Q4)

5 GB

RTX 3060

Llama 3 70B (Q4)

40 GB

A100 40GB

Llama 3 70B (FP16)

140 GB

2× H100


Tipps & bewährte Methoden

Kostenoptimierung auf Clore.ai

HTTPS mit Caddy aktivieren (für Produktion empfohlen)

Worker für hohe Lasten skalieren

Ressourcennutzung überwachen

RAG-Performance-Tuning

  • Setze Chunk-Größe auf 512–1024 Tokens für die meisten Dokumenttypen

  • Aktivieren Sie Parent-Child-Retrieval für lange Dokumente in den Dataset-Einstellungen

  • Verwenden Sie Hybrid-Suche (Keyword + Vektor) für bessere Rückrufe bei technischem Inhalt

  • Dokumente während Nebenzeiten indexieren, um API-Rate-Limits zu vermeiden


Fehlerbehebung

Dienste starten ständig neu

"Migration fehlgeschlagen" beim Start

Keine Verbindung von Dify zu Ollama möglich

Festplattenspeicher voll

Weaviate-Vektorstore-Fehler

Port 80 bereits in Gebrauch


Weiterführende Lektüre

Zuletzt aktualisiert

War das hilfreich?