RAGFlow

RAGFlow Deep Document Understanding RAG-Engine auf Clore.ai-GPUs bereitstellen

RAGFlow ist eine Open-Source- Retrieval-Augmented-Generation-(RAG)-Engine mit tiefgehenden Dokumentenverständnis-Fähigkeiten. Mit über 50.000 GitHub-Sternen, ist es eine der umfassendsten RAG-Plattformen — konzipiert, um komplexe Dokumente einschließlich PDFs, Word-Dateien, Tabellenkalkulationen, Bildern und mehr zu extrahieren, zu zerteilen und darüber zu schlussfolgern.

Im Gegensatz zu einfachen RAG-Systemen, die Dokumente naiv in Fragmente aufteilen, verwendet RAGFlow layout- und struktur-aware Parsing, um Dokumentenaufbau, Tabellen, Abbildungen und Mehrspaltentexte zu verstehen. Das führt zu deutlich höherer Retrieval-Genauigkeit und besserer Antwortqualität.

Wichtige Funktionen:

  • 📄 Tiefgehendes Dokumentenverständnis — OCR, Tabellenerkennung, Abbildungserkennung

  • 🔍 Mehrere Chunking-Strategien — semantisch, layout-bewusst, feste Größe, Q&A-Stil

  • 🤖 LLM-Integration — funktioniert mit OpenAI, Ollama, Anthropic, lokalen Modellen

  • 🌐 Voll ausgestattetes WebUI — Drag-and-Drop-Dokumentenverwaltung

  • 🔌 REST-API — integrieren Sie RAGFlow in jede Anwendung

  • 📊 Zitationsverfolgung — Antworten enthalten Referenzen auf Quelldokumente

  • 🏗️ Mandantenfähig — Team-Arbeitsbereiche mit Berechtigungskontrolle

circle-check

Serveranforderungen

Parameter
Minimum
Empfohlen

GPU

NVIDIA RTX 3080 (10 GB)

NVIDIA RTX 4090 (24 GB)

VRAM

8 GB

16–24 GB

RAM

16 GB

32–64 GB

CPU

8 Kerne

16+ Kerne

Festplatte

50 GB

100–500 GB

Betriebssystem

Ubuntu 20.04+

Ubuntu 22.04

CUDA

11.8+

12.1+

Ports

22, 9380, 80

22, 9380, 80

Docker

Erforderlich

Docker + Docker Compose

circle-exclamation

Schnelle Bereitstellung auf CLORE.AI

1. Finden Sie einen geeigneten Server

Gehe zu CLORE.AI Marketplacearrow-up-right und filtern Sie nach:

  • VRAM: ≥ 8 GB

  • RAM: ≥ 16 GB

  • Festplatte: ≥ 50 GB

  • GPU: RTX 3090, 4090, A100, H100

2. Konfigurieren Sie Ihre Bereitstellung

Docker-Image:

Portzuordnungen:

Startbefehl:

3. Greifen Sie auf das WebUI zu

Standardanmeldedaten: [email protected] / admin


Schritt-für-Schritt-Einrichtung

Schritt 1: SSH auf Ihren Server

Schritt 2: Docker Compose installieren

Schritt 3: Das RAGFlow-Repository klonen

Schritt 4: Umgebung konfigurieren

Wichtige Einstellungen zum Konfigurieren:

Schritt 5: Wählen Sie die richtige Image-Variante

Schritt 6: Starten Sie alle Dienste

Warten auf:

Schritt 7: Administratorkonto anlegen

Offen http://<server-ip>:80 und registrieren Sie das erste Administratorkonto.

Schritt 8: LLM-Modell konfigurieren

  1. Gehe zu Einstellungen → Modellanbieter

  2. Fügen Sie Ihr LLM hinzu (OpenAI, Ollama, etc.)

  3. Setzen Sie das Standard-Chat-Modell und das Embedding-Modell


Beispielanwendungen

Beispiel 1: Dokumente per WebUI hochladen und abfragen

  1. Melden Sie sich an bei http://<server-ip>:80

  2. Klicken Sie "Knowledge Base""Knowledge Base erstellen"

  3. Benennen Sie es: "Clore.ai Dokumentation"

  4. PDF/Word/TXT-Dateien per Drag-and-Drop hochladen

  5. Warten Sie auf das Parsen (Fortschritt im UI angezeigt)

  6. Gehe zu "Chat" → Erstellen Sie einen neuen Assistenten, der mit Ihrer Knowledge Base verknüpft ist

  7. Stellen Sie Fragen zu Ihren Dokumenten


Beispiel 2: API — Knowledge Base erstellen und Dokumente hochladen


Beispiel 3: Dokumente per API abfragen


Beispiel 4: Batch-Dokumentenverarbeitungspipeline


Beispiel 5: RAGFlow mit lokalem Ollama-LLM


Konfiguration

docker-compose.yml Schlüsselservices

Chunking-Strategien

Methode
Am besten für
Beschreibung

naiv

Allgemeine Dokumente

Chunks fester Größe mit Überlappung

qa

FAQ-/Q&A-Dokumente

Teilt anhand von Frage-Antwort-Paaren

table

Tabellenkalkulationen, Tabellen

Bewahrt Tabellenstruktur

paper

Wissenschaftliche Artikel

Abschnitte, Abstract, Referenzen

book

Lange Bücher, Handbücher

Kapitelerkennendes Chunking

laws

Rechtliche Dokumente

Artikelbasiertes Chunking

manual

Technische Handbücher

Erhaltung der Abschnittshierarchie


Leistungs-Tipps

1. Elasticsearch-Speicher skalieren

2. GPU-beschleunigte Embeddings

Konfigurieren Sie RAGFlow so, dass ein GPU-basiertes Embedding-Modell verwendet wird:

  • In Einstellungen → Modellanbieter ein lokales GPU-Modell über Ollama verwenden

  • Oder verweisen Sie auf einen dedizierten Embedding-Dienst, der auf der Clore.ai-GPU läuft

3. Parallele Dokumentenverarbeitung

RAGFlow verarbeitet Dokumente standardmäßig parallel. Konfigurieren Sie die Anzahl der Worker:

4. MinIO für große Dokumentensätze

Für Deployments mit tausenden Dokumenten konfigurieren Sie dedizierten MinIO-Speicher mit größerer Festplattenzuweisung in Ihrer CLORE.AI-Bestellung.


Fehlerbehebung

Problem: Dienste starten nicht (Speicher)

Problem: Kein Zugriff auf WebUI über Port 80

Problem: Dokumentenparsing hängt

Problem: Elasticsearch-Heap out of memory

Problem: Embedding-Modell nicht gefunden



Clore.ai GPU-Empfehlungen

Anwendungsfall
Empfohlene GPU
Geschätzte Kosten auf Clore.ai

Entwicklung/Tests

RTX 3090 (24GB)

~$0.12/gpu/hr

Produktion RAG

RTX 3090 (24GB)

~$0.12/gpu/hr

Hochdurchsatz-Embedding

RTX 4090 (24GB)

~$0.70/gpu/hr

💡 Alle Beispiele in diesem Leitfaden können bereitgestellt werden auf Clore.aiarrow-up-right GPU-Servern. Durchsuchen Sie verfügbare GPUs und mieten Sie stundenweise — keine Verpflichtungen, voller Root-Zugriff.

Zuletzt aktualisiert

War das hilfreich?