RAGFlow

Despliega RAGFlow, motor RAG para comprensión profunda de documentos en las GPU de Clore.ai

RAGFlow es un código abierto motor de Generación Aumentada por Recuperación (RAG) con capacidades profundas de comprensión de documentos. Con más de 50.000 estrellas en GitHub, es una de las plataformas RAG más completas disponibles: diseñada para extraer, segmentar y razonar sobre documentos complejos, incluidos PDFs, archivos Word, hojas de cálculo, imágenes y más.

A diferencia de los sistemas RAG básicos que dividen los documentos en fragmentos de forma ingenua, RAGFlow utiliza análisis con conocimiento del diseño para entender la estructura del documento, tablas, figuras y diseños de múltiples columnas. Esto resulta en una precisión de recuperación y calidad de respuesta dramáticamente superiores.

Características clave:

  • 📄 Comprensión profunda de documentos — OCR, extracción de tablas, reconocimiento de figuras

  • 🔍 Múltiples estrategias de segmentación — semántica, con conocimiento del diseño, tamaño fijo, estilo Q&A

  • 🤖 Integración de LLM — funciona con OpenAI, Ollama, Anthropic, modelos locales

  • 🌐 Interfaz Web completa — gestión de documentos con arrastrar y soltar

  • 🔌 API REST — integra RAGFlow en cualquier aplicación

  • 📊 Seguimiento de citas — las respuestas incluyen referencias al documento fuente

  • 🏗️ Multiinquilino — espacios de trabajo de equipo con control de permisos

circle-check

Requisitos del servidor

Parámetro
Mínimo
Recomendado

GPU

NVIDIA RTX 3080 (10 GB)

NVIDIA RTX 4090 (24 GB)

VRAM

8 GB

16–24 GB

RAM

16 GB

32–64 GB

CPU

8 núcleos

16+ núcleos

Disco

50 GB

100–500 GB

SO

Ubuntu 20.04+

Ubuntu 22.04

CUDA

11.8+

12.1+

Puertos

22, 9380, 80

22, 9380, 80

Docker

Requerido

Docker + Docker Compose

circle-exclamation

Despliegue rápido en CLORE.AI

1. Encuentra un servidor adecuado

Ve a CLORE.AI Marketplacearrow-up-right y filtra por:

  • VRAM: ≥ 8 GB

  • RAM: ≥ 16 GB

  • Disco: ≥ 50 GB

  • GPU: RTX 3090, 4090, A100, H100

2. Configura tu despliegue

Imagen Docker:

Mapeo de puertos:

Comando de inicio:

3. Acceda a la WebUI

Credenciales por defecto: [email protected] / admin


Configuración paso a paso

Paso 1: Conéctate por SSH a tu servidor

Paso 2: Instalar Docker Compose

Paso 3: Clonar el repositorio de RAGFlow

Paso 4: Configurar el entorno

Configuraciones clave para configurar:

Paso 5: Elegir la variante de imagen correcta

Paso 6: Iniciar todos los servicios

Espere a:

Paso 7: Crear cuenta de administrador

Abierto http://<ip-del-servidor>:80 y registre la primera cuenta de administrador.

Paso 8: Configurar el modelo LLM

  1. Ve a Ajustes → Proveedores de modelo

  2. Agregue su LLM (OpenAI, Ollama, etc.)

  3. Establezca el modelo de chat predeterminado y el modelo de embeddings


Ejemplos de uso

Ejemplo 1: Cargar y consultar documentos vía WebUI

  1. Inicia sesión en http://<ip-del-servidor>:80

  2. Haz clic "Base de conocimiento""Crear base de conocimiento"

  3. Nómbralo: "Documentación de Clore.ai"

  4. Suba archivos PDF/Word/TXT usando arrastrar y soltar

  5. Espere el parseo (progreso mostrado en la UI)

  6. Ve a "Chat" → Cree un nuevo asistente vinculado a su base de conocimiento

  7. Haga preguntas sobre sus documentos


Ejemplo 2: API — Crear base de conocimiento y subir documentos


Ejemplo 3: Consultar documentos vía API


Ejemplo 4: Canalización de procesamiento por lotes de documentos


Ejemplo 5: RAGFlow con LLM Ollama local


Configuración

Servicios clave en docker-compose.yml

Estrategias de segmentación

Método
Mejor para
Descripción

naive

Documentos generales

Fragmentos de tamaño fijo con solapamiento

qa

Documentos FAQ/Preguntas y respuestas

Divide en pares pregunta-respuesta

table

Hojas de cálculo, tablas

Preserva la estructura de la tabla

paper

Artículos académicos

Secciones, resumen, referencias

book

Libros largos, manuales

Segmentación con conciencia de capítulos

laws

Documentos legales

Segmentación por artículos

manual

Manuales técnicos

Preservación de la jerarquía de secciones


Consejos de rendimiento

1. Escalar la memoria de Elasticsearch

2. Embedding acelerado por GPU

Configure RAGFlow para usar un modelo de embeddings basado en GPU:

  • En Ajustes → Proveedores de modelo, use un modelo GPU local vía Ollama

  • O apunte a un servicio de embeddings dedicado ejecutándose en la GPU de Clore.ai

3. Procesamiento paralelo de documentos

RAGFlow procesa documentos en paralelo por defecto. Configure el número de workers:

4. MinIO para grandes conjuntos de documentos

Para despliegues con miles de documentos, configure almacenamiento MinIO dedicado con mayor asignación de disco en su pedido de CLORE.AI.


Solución de problemas

Problema: Los servicios no arrancan (memoria)

Problema: No se puede acceder a la WebUI en el puerto 80

Problema: Parseo de documento atascado

Problema: Heap de Elasticsearch sin memoria

Problema: Modelo de embeddings no encontrado


Enlaces


Recomendaciones de GPU en Clore.ai

Caso de uso
GPU recomendada
Coste estimado en Clore.ai

Desarrollo/Pruebas

RTX 3090 (24GB)

~$0.12/gpu/hr

RAG en producción

RTX 3090 (24GB)

~$0.12/gpu/hr

Embeddings de alto rendimiento

RTX 4090 (24GB)

~$0.70/gpu/hr

💡 Todos los ejemplos en esta guía pueden desplegarse en Clore.aiarrow-up-right servidores GPU. Navega las GPUs disponibles y alquila por hora — sin compromisos, acceso root completo.

Última actualización

¿Te fue útil?