Платформа рабочих процессов Dify.ai

Разверните Dify.ai на Clore.ai — создавайте готовые к производству AI-рабочие процессы, RAG-конвейеры и приложения с агентами с визуальным интерфейсом по ценам GPU-облака.

Обзор

Dify.aiarrow-up-right является платформой с открытым исходным кодом для разработки приложений на основе LLM с 114K+ звёзд на GitHub. Она объединяет визуальный конструктор рабочих процессов, конвейер RAG (retrieval-augmented generation), оркестрацию агентов, управление моделями и слой развертывания API в один стек, который можно разместить на собственном хостинге.

На Clore.ai вы можете запустить полный стек Dify — включая его базу данных Postgres, кеш Redis, векторное хранилище Weaviate, обратный прокси Nginx, API-воркеры и веб-фронтенд — на арендованном GPU-сервере всего за $0.20–$0.35/ч (RTX 3090/4090). GPU не обязателен для самого Dify, но становится необходимым, когда вы интегрируете локальный вывод модели через бэкенды Ollama или vLLM.

Ключевые возможности:

  • 🔄 Визуальный конструктор рабочих процессов — drag-and-drop конвейеры LLM с ветвлением, циклами и условной логикой

  • 📚 RAG-конвейер — загружайте PDF, URL-адреса, страницы Notion; разбиение на чанки + встраивание + извлечение — всё управляется в UI

  • 🤖 Режим агента — агенты ReAct и с вызовом функций с использованием инструментов (веб-поиск, интерпретатор кода, пользовательские API)

  • 🚀 API-first — каждое приложение мгновенно генерирует REST-эндпойнт и фрагменты SDK

  • 🔌 Более 100 интеграций моделей — OpenAI, Anthropic, Mistral, Cohere, плюс локальные модели через Ollama/vLLM

  • 🏢 Мультиарендность — команды, рабочие пространства, RBAC, квоты использования


Требования

Dify запускается как многоконтейнерный стек Docker Compose. Минимальный жизнеспособный сервер для разработки — это инстанс только с CPU; для продакшена с локальным выводом моделей вам понадобится узел с GPU.

Конфигурация
GPU
VRAM
ОЗУ системы
Диск
Clore.ai Цена

Минимальная (только ключи API)

Нет / только CPU

8 ГБ

30 GB

~$0.05/ч (CPU)

Стандартный

RTX 3080

10 ГБ

16 ГБ

50 ГБ

~$0.15/час

Рекомендуется

RTX 3090 / 4090

24 ГБ

32 ГБ

80 ГБ

$0.20–0.35/час

Продакшен + локальная LLM

A100 80 GB

80 ГБ

64 ГБ

200 ГБ

≈ $1.10/ч

Высокая пропускная способность

H100 SXM

80 ГБ

128 ГБ

500 ГБ

~$2.50/ч

Подсказка: Если вы используете только облачных поставщиков API (OpenAI, Anthropic и т.д.), подойдёт любой 2-ядерный CPU-инстанс с 8 ГБ ОЗУ. GPU важен только при запуске локальных моделей через Ollama или vLLM — см. Ускорение с помощью GPU ниже.

Примечание по диску

Данные Weaviate и Postgres быстро растут при загрузке документов. Выделите по крайней мере 50 ГБ и подключите постоянное хранилище через опции томов Clore.ai.


Быстрый старт

1. Арендуйте сервер Clore.ai

Перейдите на clore.aiarrow-up-right, отфильтруйте по желаемому GPU и разверните сервер с:

  • Docker предустановлен (все образы Clore включают его)

  • Открытые порты 80 и 443 (добавьте пользовательские порты в настройках предложения при необходимости)

  • SSH доступ включён

2. Подключитесь и подготовьте сервер

3. Клонируйте Dify и запустите

4. Убедитесь, что все сервисы работают корректно

5. Доступ к веб-интерфейсу

Откройте браузер и перейдите по адресу:

При первом запуске Dify перенаправит вас в мастер настройки для создания учётной записи администратора. Завершите мастер, затем войдите в систему.


Конфигурация

Вся конфигурация хранится в dify/docker/.env. Вот самые важные настройки:

Основные переменные окружения

Изменение открытого порта

По умолчанию Nginx слушает порт 80. Чтобы изменить его:

Постоянные тома данных

Файл Compose Dify монтирует эти тома по умолчанию:

Чтобы сделать резервную копию:


Ускорение с помощью GPU

Ядро платформы Dify работает на CPU, но вы получаете локальный вывод моделей, интегрируя Ollama или vLLM в качестве провайдеров моделей — оба сильно выигрывают от наличия GPU.

Вариант A: sidecar Ollama (самый простой)

Запустите Ollama рядом с Dify на том же сервере Clore:

Затем в UI Dify → Settings → Model Providers → Ollama:

  • Базовый URL: http://localhost:11434

  • Выберите вашу модель и сохраните

Для полного руководства по Ollama смотрите language-models/ollama.md.

Вариант B: sidecar vLLM (высокая пропускная способность)

Затем в UI Dify → Settings → Model Providers → OpenAI-compatible:

  • Базовый URL: http://localhost:8000/v1

  • API Key: dummy

  • Имя модели: mistralai/Mistral-7B-Instruct-v0.2

Для полной настройки vLLM смотрите language-models/vllm.md.

Рекомендации по объёму памяти GPU для локальных моделей

Модель
Требуемая VRAM
Рекомендуемый GPU Clore

Llama 3 8B (Q4)

6 GB

RTX 3060

Llama 3 8B (FP16)

16 ГБ

RTX 3090 / 4090

Mistral 7B (Q4)

5 ГБ

RTX 3060

Llama 3 70B (Q4)

40 ГБ

A100 40GB

Llama 3 70B (FP16)

140 GB

2× H100


Подсказки и лучшие практики

Оптимизация затрат на Clore.ai

Включите HTTPS с помощью Caddy (рекомендуется для продакшена)

Масштабируйте воркеры для больших нагрузок

Мониторинг использования ресурсов

Тонкая настройка RAG-производительности

  • Установите размер чанка до 512–1024 токенов для большинства типов документов

  • Включите родительско-дочернее извлечение для длинных документов в настройках Dataset

  • Используйте гибридный поиск (ключевое слово + вектор) для лучшего поиска по техническому контенту

  • Индексируйте документы в непиковые часы, чтобы избежать лимитов API


Устранение неполадок

Сервисы постоянно перезапускаются

"Миграция не удалась" при запуске

Не удаётся подключиться к Ollama из Dify

Закончилась дисковая память

Ошибки в векторном хранилище Weaviate

Порт 80 уже используется


Дополнительное чтение

Последнее обновление

Это было полезно?