Langflow — визуальный конструктор ИИ

Разверните Langflow на Clore.ai — создавайте и запускайте визуальные AI-конвейеры, RAG-системы и многоагентные рабочие процессы на доступной GPU-инфраструктуре с интерфейсом перетаскивания без кода.

Обзор

Langflowarrow-up-right — это открытая платформа с низким порогом кода для создания AI-приложений с помощью визуального интерфейса перетаскивания. С более чем 55 тыс. звёзд на GitHub и быстро растущим сообществом она стала одним из основных инструментов для прототипирования и развёртывания рабочих процессов на базе больших языковых моделей без написания сложного шаблонного кода.

Langflow построен поверх LangChain и предоставляет графический редактор, где вы можете соединять компоненты — LLM, векторные хранилища, загрузчики документов, ретриверы, агентов, инструменты — рисуя линии между узлами. Полученный конвейер можно экспортировать как конечную точку API, поделиться как шаблоном или встроить в ваше приложение.

Ключевые возможности:

  • Визуальный конструктор RAG — Подключайте загрузчики документов → эмбеддинги → векторные хранилища → ретриверы за считанные минуты

  • Многопроцессные (multi-agent) рабочие процессы — Сцепляйте несколько AI-агентов с памятью, инструментами и логикой принятия решений

  • Интеграция с LangChain — Доступ к полной экосистеме LangChain через узлы UI

  • Маркетплейс компонентов — Компоненты, внесённые сообществом для десятков сервисов

  • API-first — Каждый поток автоматически генерирует REST API-эндпоинт

  • Память и состояние — Встроенная память диалогов, управление сессиями

Почему Clore.ai для Langflow?

Требования Langflow к вычислительным ресурсам минимальны — это Python-веб-сервер, обрабатывающий оркестрацию рабочих процессов. Тем не менее Clore.ai открывает мощные сценарии использования:

  • Самохостинг эмбеддингов — Запускайте локальные модели эмбеддингов (nomic-embed, BGE) на GPU для быстрой бесплатной генерации векторов

  • Локальные LLM-бэкенды — Подключайте Langflow к Ollama или vLLM, запущенным на том же сервере

  • Приватные конвейеры данных — Обрабатывайте чувствительные документы без отправки данных внешним API

  • Оптимизация затрат — Заменяйте дорогостоящие вызовы OpenAI для эмбеддингов на бесплатный локальный вывод

  • Постоянные рабочие процессы — Долгоживущие потоки на выделенных серверах (в отличие от эфемерных облачных функций)


Требования

Сам Langflow лёгкий и основан на CPU. GPU опционален, но даёт возможность бесплатного локального вывода LLM/эмбеддингов.

Конфигурация
GPU
VRAM
ОЗУ
Хранилище
Оцениваемая цена

Только Langflow (бекенды API)

Не требуется

4 ГБ

10 ГБ

≈ $0.03–0.08/ч

+ Локальные эмбеддинги (nomic-embed)

RTX 3090

24 ГБ

8 ГБ

20 ГБ

≈ $0.20/ч

+ Ollama (Llama 3.1 8B)

RTX 3090

24 ГБ

16 ГБ

40 ГБ

≈ $0.20/ч

+ Ollama (Qwen2.5 32B)

RTX 4090

24 ГБ

32 ГБ

60 ГБ

≈ $0.35/ч

+ vLLM (производственный RAG)

A100 80GB

80 ГБ

64 ГБ

100 ГБ

≈ $1.10/ч

Для сравнения опций GPU на Clore.ai смотрите Руководство по сравнению GPU.

Требования к ПО на сервере Clore.ai:

  • Docker Engine (предустановлен на всех образах Clore.ai)

  • NVIDIA Container Toolkit (предустановлен на GPU-образах, требуется только для локальных LLM)

  • 10+ ГБ свободного места на диске для образа Langflow и данных потоков

  • Исходящий доступ в интернет (для загрузки Docker-образов и обращения к внешним API)


Быстрый старт

Шаг 1: Подключитесь к вашему серверу Clore.ai

Забронируйте сервер на маркетплейсе Clore.aiarrow-up-right. Для использования только Langflow подойдёт любой сервер с ≥4 ГБ RAM. Подключитесь через SSH:

Шаг 2: Запустите Langflow с помощью Docker

Самое простое развёртывание — одна команда:

Подождите ~30–60 секунд для запуска, затем откройте по адресу http://<server-ip>:7860

Шаг 3: Откройте порт 7860 на Clore.ai

В панели Clore.ai перейдите к вашему серверу → раздел «Порты» → убедитесь, что 7860 маппируется. Если вы используете пользовательский шаблон, добавьте 7860:7860 в конфигурацию портов перед запуском сервера.

Шаг 4: Первый запуск

При первом посещении Langflow:

  1. Покажет приветственный экран и предложит создать аккаунт (или пропустить)

  2. Предложит набор стартовых шаблонов (RAG, чат-бот, агент)

  3. Откроет визуальный редактор канвы

Вы готовы создать свой первый поток!


Конфигурация

Постоянное хранение данных

По умолчанию Langflow хранит потоки и данные внутри контейнера. Примонтируйте том, чтобы сохранять данные при перезапусках:

Справочник переменных окружения

Переменная
Описание
По умолчанию

LANGFLOW_HOST

Адрес привязки

0.0.0.0

LANGFLOW_PORT

Порт веб-сервера

7860

LANGFLOW_DATABASE_URL

Строка подключения к базе данных

SQLite в памяти

LANGFLOW_SECRET_KEY

Секрет сессии (установите для продакшена)

Случайный

LANGFLOW_AUTO_LOGIN

Пропустить экран входа

true

LANGFLOW_SUPERUSER

Имя администратора

admin

LANGFLOW_SUPERUSER_PASSWORD

Пароль администратора

LANGFLOW_WORKERS

Количество API-воркеров

1

LANGFLOW_LOG_LEVEL

Уровень логирования

critical

OPENAI_API_KEY

Предварительно загрузить ключ OpenAI

Использование PostgreSQL (Продакшен)

Для многопользовательских или продакшен-развёртываний используйте PostgreSQL вместо SQLite:

Docker Compose (полный стек)

Для полноценной настройки с PostgreSQL и обратным прокси Nginx:

Фиксация конкретной версии

Для воспроизводимых развёртываний зафиксируйте конкретную версию:


Ускорение с помощью GPU (интеграция локальных моделей)

Сам Langflow работает на CPU, но подключение его к локальным сервисам с поддержкой GPU на том же сервере Clore.ai даёт бесплатный и приватный вывод.

Подключение Langflow к Ollama

В интерфейсе Langflow используйте компонент Ollama с параметрами:

  • Базовый URL: http://host.docker.internal:11434

  • Модель: llama3.1:8b

Для эмбеддингов используйте OllamaEmbeddings с параметрами:

  • Базовый URL: http://host.docker.internal:11434

  • Модель: nomic-embed-text

Полная конфигурация Ollama: смотрите руководство по Ollama

Подключение Langflow к vLLM (совместимому с OpenAI)

Полная конфигурация vLLM: смотрите руководство по vLLM

Построение локального RAG-конвейера

Пример RAG-потока, использующего только локальные модели (нулевая стоимость API):

  1. Загрузчик файлов узел → Загрузка PDF/текстовых документов

  2. Разделитель текста узел → Разбивать документы на фрагменты (size: 512, overlap: 50)

  3. OllamaEmbeddings узел → Генерировать эмбеддинги (модель: nomic-embed-text)

  4. Chroma или FAISS узел → Сохранять векторы локально

  5. OllamaEmbeddings узел → Встраивать запрос пользователя

  6. Ретривер узел → Находить топ-k похожих фрагментов

  7. Ollama узел → Генерировать ответ (модель: llama3.1:8b)

  8. Вывод чата узел → Возвращать ответ

Весь этот конвейер работает на вашем сервере Clore.ai без вызовов внешних API.


Подсказки и лучшие практики

1. Экспортируйте потоки как резервные копии

Перед остановкой сервера Clore.ai экспортируйте ваши потоки:

  • В интерфейсе: Flows → Выбрать все → Export → Скачать JSON

  • Или через API: curl http://localhost:7860/api/v1/flows/

Сохраните их в постоянном томе или скачайте на локальную машину.

2. Используйте API для автоматизации

Каждый поток Langflow генерирует конечную точку API. Запускайте потоки программно:

3. Защитите ваш инстанс

Для всего, что выходит за рамки локального тестирования:

4. Мониторьте использование памяти

Langflow может накапливать использование памяти со временем при наличии многих активных потоков:

5. Используйте стартовые шаблоны

Langflow поставляется с шаблонами, готовыми к продакшену:

  • Базовый RAG — Вопрос-ответ по документам с векторным хранилищем

  • Чат-бот с памятью — Разговорный агент с историей

  • Ассистент для исследований — Веб-поиск + синтез LLM

  • Доступ через: New Flow → Starter Projects

6. Кэширование компонентов

Включите кэширование для ускорения повторных запусков потоков:

  • В настройках потока: Включите "Cache" на дорогих узлах (эмбеддинги, вызовы LLM)

  • Особенно полезно для RAG-ретривала во время разработки


Устранение неполадок

Контейнер не запускается

UI загружается, но потоки не выполняются

Не удаётся подключиться к Ollama

Ошибки базы данных при перезапуске

Медленное выполнение потоков

Сброс пароля администратора


Дополнительное чтение

Последнее обновление

Это было полезно?