Платформа RAG AnythingLLM
Разверните AnythingLLM на Clore.ai — универсальное приложение RAG и платформа AI-агентов с встроенным чатом по документам, конструктором агентов без кода и поддержкой MCP на экономичных GPU-облачных серверах.
Обзор
Обзор архитектуры
┌─────────────────────────────────────────────┐
│ AnythingLLM (порт 3001) │
│ │
│ ┌──────────┐ ┌──────────┐ ┌──────────┐ │
│ │ RAG/Docs │ │ Agents │ │ Users │ │
│ └────┬─────┘ └────┬─────┘ └──────────┘ │
│ │ │ │
│ ┌────▼─────────────▼───────┐ │
│ │ LLM Provider Router │ │
│ └──────────────┬───────────┘ │
└─────────────────┼───────────────────────────┘
│
┌────────────┼────────────┐
▼ ▼ ▼
OpenAI Anthropic Ollama (локально)
Claude Gemini vLLM (локально)Требования
Спецификации сервера
Компонент
Минимум
Рекомендуется
Примечания
Справка по ценам Clore.ai
Тип сервера
Примерная стоимость
Случай использования
Требования
Быстрый старт
Метод 1: Один Docker-контейнер (рекомендуется)
Метод 2: Docker Compose (многоcервисный)
Метод 3: С предварительно настроенными переменными окружения
Конфигурация
Опции провайдеров LLM
Конфигурация эмбеддингов
Движок
Бэкенд
Требуется GPU
Качество
Опции векторной базы данных
БД
Описание
Лучше всего для
Конфигурация рабочего пространства
Загрузка документов
Ускорение с помощью GPU
Запуск Ollama на том же сервере Clore.ai
Производительность моделей на GPU в Clore.ai
Модель
GPU
VRAM
Скорость эмбеддинга
Скорость инференса
Стоимость/ч
Подсказки и лучшие практики
Лучшие практики при загрузке документов
Управление затратами на Clore.ai
Настройка для нескольких пользователей
Конфигурация AI-агента
Тонкая настройка производительности
Обновление AnythingLLM
Устранение неполадок
Контейнер запущен, но UI недоступен
Загрузка документа не удалась
RAG-ответы низкого качества / галлюцинации
Соединение с Ollama не удаётся из AnythingLLM
Недостаточно памяти / падение контейнера
Дополнительное чтение
Последнее обновление
Это было полезно?