RAGFlow

Déployer RAGFlow, moteur RAG d'analyse approfondie de documents, sur les GPU Clore.ai

RAGFlow est un moteur de génération augmenté par récupération (RAG) avec des capacités d'analyse approfondie de documents. Avec plus de 50 000 étoiles sur GitHub, c'est l'une des plateformes RAG les plus complètes disponibles — conçue pour extraire, découper et raisonner sur des documents complexes y compris des PDF, fichiers Word, feuilles de calcul, images, et plus encore.

Contrairement aux systèmes RAG basiques qui découpent naïvement les documents en segments, RAGFlow utilise un parsing conscient de la mise en page pour comprendre la structure des documents, les tableaux, les figures et les mises en page en colonnes multiples. Cela se traduit par une précision de récupération et une qualité de réponse nettement supérieures.

Principales fonctionnalités :

  • 📄 Compréhension approfondie des documents — OCR, extraction de tableaux, reconnaissance de figures

  • 🔍 Plusieurs stratégies de découpage — sémantique, conscient de la mise en page, taille fixe, style Q&R

  • 🤖 Intégration LLM — fonctionne avec OpenAI, Ollama, Anthropic, modèles locaux

  • 🌐 Interface Web complète — gestion de documents par glisser-déposer

  • 🔌 API REST — intégrez RAGFlow dans n'importe quelle application

  • 📊 Suivi des citations — les réponses incluent des références aux documents sources

  • 🏗️ Multi-tenant — espaces de travail d'équipe avec contrôle des permissions

circle-check

Exigences serveur

Paramètre
Minimum
Recommandé

GPU

NVIDIA RTX 3080 (10 Go)

NVIDIA RTX 4090 (24 Go)

VRAM

8 Go

16–24 Go

RAM

16 Go

32–64 Go

CPU

8 cœurs

16+ cœurs

Disque

50 Go

100–500 Go

OS

Ubuntu 20.04+

Ubuntu 22.04

CUDA

11.8+

12.1+

Ports

22, 9380, 80

22, 9380, 80

Docker

Requis

Docker + Docker Compose

circle-exclamation

Déploiement rapide sur CLORE.AI

1. Trouvez un serveur adapté

Aller à CLORE.AI Marketplacearrow-up-right et filtrez par :

  • VRAM: ≥ 8 Go

  • RAM : ≥ 16 Go

  • Disque : ≥ 50 Go

  • GPU : RTX 3090, 4090, A100, H100

2. Configurez votre déploiement

Image Docker :

Mappages de ports :

Commande de démarrage :

3. Accédez à l'interface Web

Identifiants par défaut : [email protected] / admin


Configuration étape par étape

Étape 1 : Connectez-vous en SSH à votre serveur

Étape 2 : Installer Docker Compose

Étape 3 : Cloner le dépôt RAGFlow

Étape 4 : Configurer l'environnement

Paramètres clés à configurer :

Étape 5 : Choisir la variante d'image appropriée

Étape 6 : Démarrer tous les services

Attendez :

Étape 7 : Créer un compte administrateur

Ouvert http://<ip-du-serveur>:80 et enregistrez le premier compte administrateur.

Étape 8 : Configurer le modèle LLM

  1. Aller à Paramètres → Fournisseurs de modèles

  2. Ajoutez votre LLM (OpenAI, Ollama, etc.)

  3. Définissez le modèle de chat par défaut et le modèle d'embeddings


Exemples d’utilisation

Exemple 1 : Télécharger et interroger des documents via l'interface Web

  1. Connectez-vous à http://<ip-du-serveur>:80

  2. Cliquez "Base de connaissances""Créer une base de connaissances"

  3. Nommez-la : "Documentation Clore.ai"

  4. Téléversez des fichiers PDF/Word/TXT en glisser-déposer

  5. Attendez le parsing (progression affichée dans l'UI)

  6. Aller à "Chat" → Créez un nouvel assistant lié à votre base de connaissances

  7. Posez des questions sur vos documents


Exemple 2 : API — Créer une base de connaissances et téléverser des documents


Exemple 3 : Interroger des documents via l'API


Exemple 4 : Pipeline de traitement par lots de documents


Exemple 5 : RAGFlow avec LLM Ollama local


Configuration

docker-compose.yml Services clés

Stratégies de découpage

Méthode
Idéal pour
Description

naïf

Documents généraux

Segments de taille fixe avec chevauchement

qa

Documents FAQ/Q&R

Découpe basée sur les paires question-réponse

table

Feuilles de calcul, tableaux

Conserve la structure du tableau

paper

Articles académiques

Sections, résumé, références

book

Livres longs, manuels

Découpage conscient des chapitres

laws

Documents juridiques

Découpage par article

manual

Manuels techniques

Conservation de la hiérarchie des sections


Conseils de performance

1. Augmenter la mémoire d'Elasticsearch

2. Embeddings accélérés par GPU

Configurer RAGFlow pour utiliser un modèle d'embeddings basé sur GPU :

  • Dans Paramètres → Fournisseurs de modèles, utilisez un modèle GPU local via Ollama

  • Ou pointez vers un service d'embeddings dédié exécuté sur le GPU Clore.ai

3. Traitement parallèle des documents

RAGFlow traite les documents en parallèle par défaut. Configurez le nombre de workers :

4. MinIO pour les grands jeux de documents

Pour des déploiements avec des milliers de documents, configurez un stockage MinIO dédié avec une allocation de disque plus importante dans votre commande CLORE.AI.


Dépannage

Problème : Les services ne démarrent pas (mémoire)

Problème : Impossible d'accéder à l'UI sur le port 80

Problème : Parsing de document bloqué

Problème : Heap d'Elasticsearch épuisé

Problème : Modèle d'embeddings introuvable


Liens


Recommandations GPU Clore.ai

Cas d’utilisation
GPU recommandé
Coût estimé sur Clore.ai

Développement/Test

RTX 3090 (24GB)

~$0.12/gpu/hr

RAG en production

RTX 3090 (24GB)

~$0.12/gpu/hr

Embeddings à haut débit

RTX 4090 (24GB)

~$0.70/gpu/hr

💡 Tous les exemples de ce guide peuvent être déployés sur Clore.aiarrow-up-right serveurs GPU. Parcourez les GPU disponibles et louez à l’heure — sans engagement, avec accès root complet.

Mis à jour

Ce contenu vous a-t-il été utile ?