Flowise — конструктор AI-агентов

Разверните Flowise на Clore.ai — создавайте и размещайте визуальные чат-боты на основе LLM, AI-агентов и RAG-конвейеры на доступных GPU-серверах с интерфейсом перетаскивания без кода и мгновенными API-эндпоинтами.

Обзор

Flowisearrow-up-right это инструмент с открытым исходным кодом с перетаскиванием для создания приложений на базе больших языковых моделей без написания кода. С более чем 35K звёзд на GitHub и более 5 миллионов загрузок в Docker Hub, Flowise стал одним из самых часто разворачиваемых инструментов ИИ с саморазвёртыванием в экосистеме. Он позволяет командам создавать чат-ботов, RAG-системы, ИИ-агентов и автоматизированные рабочие процессы через интуитивный визуальный интерфейс — и разворачивать их как REST API-эндпоинты за считанные минуты.

Flowise построен на LangChain.js и предоставляет канву с узлами, где вы соединяете компоненты: LLM, векторные базы данных, загрузчики документов, хранилища памяти, инструменты и агентов. Каждый поток автоматически генерирует встраиваемый виджет чата и API-эндпоинт, который можно интегрировать в любое приложение.

Ключевые возможности:

  • Конструктор потоков с перетаскиванием — Визуальная оркестрация LLM с более чем 100 предустановленными узлами

  • Создание чат-ботов — Встраиваемые виджеты чата для сайтов и приложений

  • RAG-конвейеры — Визуальное подключение загрузчиков документов, эмбеддеров и векторных хранилищ

  • Поддержка мультиагентности — Создавайте иерархии агентов с использованием инструментов и делегированием задач

  • Мгновенный API — Каждый поток генерирует /api/v1/prediction/<flowId> эндпоинт

  • Узлы LangChain — Полный доступ к экосистеме LangChain.js

  • Менеджер учётных данных — Централизованное управление API-ключами, подключениями к базам данных

Почему Clore.ai для Flowise?

Flowise — это лёгкий сервер на Node.js — он отвечает за оркестрацию, а не за вычисления. Совмещение его с Clore.ai даёт:

  • Локальный вывод моделей — Запускайте Ollama или vLLM на том же GPU-сервере, что устраняет расходы на API

  • Приватная обработка документов — RAG-конвейеры, которые никогда не отправляют данные внешним сервисам

  • Постоянное развёртывание — Постоянно доступный хостинг чат-ботов и API по цене GPU-сервера

  • Экономично в масштабе — Создавайте многопользовательские платформы чат-ботов без платы за каждый вызов API

  • Хостинг полного стека ИИ — Flowise + Ollama + Qdrant/Chroma — всё на одном доступном сервере


Требования

Сам Flowise — это приложение на Node.js с минимальными требованиями к ресурсам. GPU требуется только если вы добавляете локальную LLM-бэкенд.

Конфигурация
GPU
VRAM
ОЗУ
Хранилище
Оцениваемая цена

Только Flowise (внешние API)

Нет

2–4 ГБ

10 ГБ

≈ $0.03–0.08/ч

+ Ollama (Llama 3.1 8B)

RTX 3090

24 ГБ

16 ГБ

40 ГБ

≈ $0.20/ч

+ Ollama (Mistral 7B + эмбеддинги)

RTX 3090

24 ГБ

16 ГБ

30 GB

≈ $0.20/ч

+ Ollama (Qwen2.5 32B)

RTX 4090

24 ГБ

32 ГБ

60 ГБ

≈ $0.35/ч

+ vLLM (продакшн)

A100 80GB

80 ГБ

64 ГБ

100 ГБ

≈ $1.10/ч

Примечание: Flowise уверенно работает на любом сервере Clore.ai. GPU нужен только если вы хотите локальный бесплатный вывод. Смотрите Руководство по сравнению GPU.

требования к серверу Clore.ai:

  • Docker Engine (предустановлен на всех образах Clore.ai)

  • NVIDIA Container Toolkit (только для GPU/Ollama)

  • Порт 3000 должен быть доступен (или проброшен в панели Clore.ai)

  • Минимум 2 ГБ свободной ОЗУ, 10 ГБ дискового пространства


Быстрый старт

Шаг 1: Забронируйте сервер на Clore.ai

В маркетплейсе Clore.aiarrow-up-right:

  • Для использования только API: любой сервер, фильтр по ОЗУ ≥ 4 ГБ

  • Для локальной LLM: фильтр GPU ≥ 24 ГБ VRAM

  • Убедитесь, что Docker включён в шаблоне

Подключитесь через SSH:

Шаг 2: Запустите Flowise (одной командой)

Вот и всё. Flowise будет доступен по адресу http://<server-ip>:3000 в течение 20–30 секунд.

Шаг 3: Проверьте, что он запущен

Шаг 4: Откройте интерфейс

Перейдите по адресу http://<server-ip>:3000 в вашем браузере.

Проброс портов в Clore.ai: Убедитесь, что порт 3000 перенаправлен в конфигурации сервера Clore.ai. Перейдите в детали сервера → Порты → подтвердите, что 3000:3000 проброшен. Некоторые шаблоны по умолчанию открывают только SSH.


Конфигурация

Постоянное хранилище

Монтируйте тома, чтобы ваши потоки, учётные данные и загруженные файлы пережили перезапуски контейнера:

Аутентификация

Защитите свой экземпляр Flowise с помощью имени пользователя/пароля:

Примечание по безопасности: Всегда устанавливайте учетные данные при публичном доступе к Flowise на Clore.ai. Без аутентификации любой, у кого есть IP вашего сервера, сможет получить доступ к вашим потокам и API-ключам.

Полный справочник переменных окружения

Переменная
Описание
По умолчанию

PORT

Порт веб-сервера

3000

FLOWISE_USERNAME

Имя пользователя администратора (включает аутентификацию)

— (без аутентификации)

FLOWISE_PASSWORD

Пароль администратора

FLOWISE_SECRETKEY_OVERWRITE

Ключ шифрования для учётных данных

Автогенерируется

DATABASE_TYPE

sqlite или mysql или postgres

sqlite

DATABASE_PATH

Путь хранения SQLite

/root/.flowise

LOG_LEVEL

error, warn, info, debug

info

TOOL_FUNCTION_BUILTIN_DEP

Разрешённые встроенные модули Node.js в узлах кода

TOOL_FUNCTION_EXTERNAL_DEP

Разрешённые npm-пакеты в узлах кода

CORS_ORIGINS

Разрешённые источники CORS для API

*

IFRAME_ORIGINS

Разрешённые источники встраивания iframe

*

Docker Compose (рекомендуется)

Официальный репозиторий Flowise включает конфигурацию Docker Compose. Это рекомендуемый подход для Clore.ai:

Или создайте свой собственный с PostgreSQL:


Ускорение на GPU (интеграция локальной LLM)

Flowise отвечает за оркестрацию — тяжёлые вычисления выполняет GPU в подключённых сервисах.

Flowise + Ollama (рекомендуется)

Запустите Ollama на том же сервере Clore.ai и подключите к нему Flowise:

В интерфейсе Flowise:

  1. Создайте новый Chatflow

  2. Добавьте Ollama узел (в разделе Chat Models)

    • Базовый URL: http://host.docker.internal:11434

    • Имя модели: llama3.1:8b

  3. Добавьте OllamaEmbeddings узел (для RAG)

    • Базовый URL: http://host.docker.internal:11434

    • Имя модели: nomic-embed-text

  4. Подключитесь к вашему векторному хранилищу (Chroma, FAISS, Qdrant)

См. полный руководство по Ollama для загрузки моделей и настройки GPU.

Flowise + vLLM (продакшн-масштаб)

Для OpenAI-совместимого высокопропускного обслуживания:

См. руководство по vLLM для квантования и конфигураций с несколькими GPU.

Создание полностью локального RAG-чат-бота

Полный Flowise-поток без внешних вызовов API на Clore.ai:

Узел
Компонент
Настройки

1

Загрузчик PDF-файлов

Загрузить документ

2

Рекурсивный разделитель текста

Чанк: 1000, перекрытие: 200

3

Эмбеддинги Ollama

Модель: nomic-embed-text

4

Векторное хранилище в памяти

(или Chroma для постоянного хранения)

5

Чат Ollama

Модель: llama3.1:8b

6

Разговорный Retrieval QA

Тип цепочки: Stuff

7

Буферная память

Память на основе сессии

Экспортируйте это как API и встроите виджет чата на любой сайт.


Подсказки и лучшие практики

1. Регулярно экспортируйте потоки

Перед остановкой или переключением серверов Clore.ai:

2. Используйте встраиваемый виджет

Каждый chatflow Flowise генерирует готовый к продакшну виджет чата:

  1. Откройте ваш chatflow → Нажмите </> кнопку (Embed)

  2. Скопируйте фрагмент скрипта

  3. Вставьте в любую HTML-страницу — мгновенный бот для поддержки клиентов

3. Безопасно управляйте API-ключами

Храните все LLM API-ключи в Учётные данные панели Flowise (не жёстко вшивайте их в потоки):

  • Меню → Credentials → Add Credential

  • Ключи шифруются с помощью FLOWISE_SECRETKEY_OVERWRITE

4. Ограничение скорости

Для публичных развертываний добавьте ограничение скорости через Nginx или Caddy перед Flowise:

5. Мониторинг производительности

6. Резервное копирование SQLite базы данных


Устранение неполадок

Контейнер сразу выходит

В интерфейсе отображается «Connection Failed»

Потоки завершаются с ошибками LLM

Ошибки миграции базы данных при обновлении

Ошибки расшифровки учётных данных после перезапуска

CORS-ошибки виджета чата


Дополнительное чтение

Последнее обновление

Это было полезно?