RAGFlow

Разверните RAGFlow — движок глубокого понимания документов RAG на GPU Clore.ai

RAGFlow — это проект с открытым исходным кодом движок Retrieval-Augmented Generation (RAG) с возможностями глубокого понимания документов. С более чем 50 000 звёзд на GitHub, это одна из самых полнофункциональных платформ RAG — предназначенная для извлечения, разбиения на фрагменты и рассуждения по сложным документам, включая PDF, Word-файлы, таблицы, изображения и многое другое.

В отличие от базовых RAG-систем, которые наивно делят документы на фрагменты, RAGFlow использует парсинг с учётом макета для понимания структуры документа, таблиц, рисунков и многоколоночных макетов. Это приводит к значительно более высокой точности поиска и качеству ответов.

Ключевые особенности:

  • 📄 Глубокое понимание документов — OCR, извлечение таблиц, распознавание фигур

  • 🔍 Несколько стратегий разбиения на фрагменты — семантическое, с учётом макета, фиксированного размера, в стиле Вопрос-Ответ

  • 🤖 Интеграция с LLM — работает с OpenAI, Ollama, Anthropic, локальными моделями

  • 🌐 Полнофункциональный веб-интерфейс — управление документами перетаскиванием

  • 🔌 REST API — интегрируйте RAGFlow в любое приложение

  • 📊 Отслеживание цитирований — ответы включают ссылки на исходные документы

  • 🏗️ Многопользовательская (multi-tenant) — рабочие пространства для команд с управлением доступом

circle-check

Требования к серверу

Параметр
Минимум
Рекомендуется

GPU

NVIDIA RTX 3080 (10 ГБ)

NVIDIA RTX 4090 (24 ГБ)

VRAM

8 ГБ

16–24 ГБ

ОЗУ

16 ГБ

32–64 ГБ

CPU

8 ядер

16+ ядер

Диск

50 ГБ

100–500 ГБ

ОС

Ubuntu 20.04+

Ubuntu 22.04

CUDA

11.8+

12.1+

Порты

22, 9380, 80

22, 9380, 80

Docker

Требуется

Docker + Docker Compose

circle-exclamation

Быстрое развертывание на CLORE.AI

1. Найдите подходящий сервер

Перейдите на CLORE.AI Маркетплейсarrow-up-right и отфильтруйте по:

  • VRAM: ≥ 8 ГБ

  • ОЗУ: ≥ 16 ГБ

  • Диск: ≥ 50 ГБ

  • GPU: RTX 3090, 4090, A100, H100

2. Настройте ваше развёртывание

Docker-образ:

Проброс портов:

Команда запуска:

3. Доступ к WebUI

Учётные данные по умолчанию: [email protected] / admin


Пошаговая настройка

Шаг 1: Подключитесь по SSH к вашему серверу

Шаг 2: Установите Docker Compose

Шаг 3: Клонируйте репозиторий RAGFlow

Шаг 4: Настройте окружение

Ключевые настройки для конфигурации:

Шаг 5: Выберите подходящий вариант образа

Шаг 6: Запустите все сервисы

Ожидайте:

Шаг 7: Создайте аккаунт администратора

Открыто http://<server-ip>:80 и зарегистрируйте первого администратора.

Шаг 8: Настройте модель LLM

  1. Перейдите на Settings → Model Providers

  2. Добавьте вашу LLM (OpenAI, Ollama и т.д.)

  3. Установите модель чата по умолчанию и модель для эмбеддингов


Примеры использования

Пример 1: Загрузка и запрос документов через WebUI

  1. Войдите в http://<server-ip>:80

  2. Нажмите "База знаний""Создать базу знаний"

  3. Дайте ей имя: "Документация Clore.ai"

  4. Загрузите файлы PDF/Word/TXT перетаскиванием

  5. Подождите парсинга (прогресс отображается в интерфейсе)

  6. Перейдите на "Чат" → Создайте нового ассистента, связанного с вашей базой знаний

  7. Задавайте вопросы по вашим документам


Пример 2: API — создание базы знаний и загрузка документов


Пример 3: Запрос документов через API


Пример 4: Пакетная обработка документов


Пример 5: RAGFlow с локальной LLM Ollama


Конфигурация

docker-compose.yml — ключевые сервисы

Стратегии разбиения на фрагменты

Метод
Лучше всего для
Описание

naive

Общие документы

Фрагменты фиксированного размера с перекрытием

qa

FAQ/документы в формате Вопрос-Ответ

Деление по парам вопрос-ответ

table

Таблицы, электронные таблицы

Сохранение структуры таблицы

paper

Научные статьи

Секции, аннотация, ссылки

book

Длинные книги, руководства

Разбиение с учётом глав

laws

Юридические документы

Разбиение по статьям

manual

Технические руководства

Сохранение иерархии разделов


Советы по производительности

1. Увеличьте память Elasticsearch

2. Ускоренные на GPU эмбеддинги

Настройте RAGFlow на использование модели эмбеддингов с поддержкой GPU:

  • В Settings → Model Providers используйте локальную GPU-модель через Ollama

  • Или укажите на выделенный сервис эмбеддингов, запущенный на GPU Clore.ai

3. Параллельная обработка документов

RAGFlow по умолчанию обрабатывает документы параллельно. Настройте количество воркеров:

4. MinIO для больших наборов документов

Для развертываний с тысячами документов настройте выделённое хранилище MinIO с большим объёмом диска в вашем заказе CLORE.AI.


Устранение неполадок

Проблема: Сервисы не запускаются (память)

Проблема: Нет доступа к WebUI на порту 80

Проблема: Парсинг документа завис

Проблема: У Elasticsearch закончилась память кучи

Проблема: Модель эмбеддингов не найдена


Ссылки


Рекомендации Clore.ai по GPU

Сценарий использования
Рекомендуемый GPU
Примерная стоимость на Clore.ai

Разработка/Тестирование

RTX 3090 (24GB)

~$0.12/gpu/hr

Production RAG

RTX 3090 (24GB)

~$0.12/gpu/hr

Высокопропускная способность эмбеддингов

RTX 4090 (24GB)

~$0.70/gpu/hr

💡 Все примеры в этом руководстве можно развернуть на Clore.aiarrow-up-right GPU-серверах. Просматривайте доступные GPU и арендуйте по часам — без обязательств, с полным root-доступом.

Последнее обновление

Это было полезно?