Flowise AI 代理构建器

在 Clore.ai 上部署 Flowise —— 在价格合理的 GPU 云服务器上构建和托管可视化 LLM 聊天机器人、AI 代理和 RAG 管道,提供拖放无代码界面和即时 API 端点。

概览

Flowisearrow-up-right 是一个开源的拖放工具,用于构建无需编写代码即可运行大型语言模型(LLM)的应用。拥有 35K+ GitHub 星标 和 超过 500 万次 Docker Hub 拉取,Flowise 已成为生态系统中部署最多的自托管 AI 工具之一。它使团队能够通过直观的可视界面创建聊天机器人、RAG 系统、AI 代理和自动化工作流——并在几分钟内将它们作为 REST API 端点部署。

Flowise 建立在 LangChain.js 之上,提供了一个基于节点的画布,您可以在其中连接组件:LLM、向量数据库、文档加载器、记忆存储、工具和代理。每个流程会自动生成可嵌入的聊天小部件和 API 端点,您可以将其集成到任何应用中。

主要功能:

  • 拖放式流程构建器 — 可视化 LLM 编排,包含 100+ 预构建节点

  • 聊天机器人创建 — 可嵌入的网站和应用聊天小部件

  • RAG 管道 — 可视化连接文档加载器、嵌入器和向量存储

  • 多代理支持 — 构建具有工具使用和委派功能的代理层次结构

  • 即时 API — 每个流程都会生成一个 /api/v1/prediction/<flowId> 端点

  • LangChain 节点 — 完全访问 LangChain.js 生态系统

  • 凭据管理器 — 集中管理 API 密钥、数据库连接

为什么为 Flowise 选择 Clore.ai?

Flowise 是一个轻量级的 Node.js 服务器——它负责编排,而不是计算。将其与 Clore.ai 配合可以实现:

  • 本地模型推理 — 在同一 GPU 服务器上运行 Ollama 或 vLLM,消除 API 成本

  • 私有文档处理 — 不会将数据发送到外部服务的 RAG 管道

  • 持久部署 — 以 GPU 服务器价格提供始终在线的聊天机器人和 API 托管

  • 大规模时具有成本效益 — 构建多租户聊天机器人平台而无需按调用的 API 费用

  • 全栈 AI 托管 — Flowise + Ollama + Qdrant/Chroma 都在一台实惠的服务器上


要求

Flowise 本身是一个 Node.js 应用,对资源要求最低。仅在添加本地 LLM 后端时才需要 GPU。

配置
GPU
显存
内存
存储
预计价格

仅 Flowise(外部 API)

2–4 GB

10 GB

~$0.03–0.08/小时

+ Ollama(Llama 3.1 8B)

速度

24 GB

16 GB

40 GB

~$0.20/小时

+ Ollama(Mistral 7B + 嵌入)

速度

24 GB

16 GB

30 GB

~$0.20/小时

+ Ollama(Qwen2.5 32B)

512x512

24 GB

32 GB

60 GB

~$0.35/小时

+ vLLM(生产)

4 小时会话

80 GB

64 GB

100 GB

~$1.10/小时

注意: Flowise 可在任何 Clore.ai 服务器上轻松运行。只有在希望进行本地免费推理时才需要 GPU。请参见 GPU 比较指南.

Clore.ai 服务器要求:

  • Docker 引擎(所有 Clore.ai 镜像预装)

  • NVIDIA 容器工具包(仅用于 GPU/Ollama)

  • 端口 3000 可访问(或在 Clore.ai 仪表板中映射)

  • 至少 2 GB 空闲内存,10 GB 磁盘空间


快速开始

第 1 步:在 Clore.ai 上预订服务器

Clore.ai 市场arrow-up-right:

  • 仅用于 API:任意服务器,筛选 RAM ≥ 4 GB

  • 用于本地 LLM:筛选 GPU ≥ 24 GB 显存

  • 确保模板中启用了 Docker

通过 SSH 连接:

第 2 步:运行 Flowise(单条命令)

就是这样。Flowise 将在 http://<server-ip>:3000 在 20–30 秒内可用。

第 3 步:验证其是否正在运行

第 4 步:打开 UI

在浏览器中导航到 http://<server-ip>:3000

Clore.ai 端口映射: 确保在 Clore.ai 服务器配置中转发端口 3000。进入服务器详细信息 → 端口 → 确认 3000:3000 已映射。有些模板默认仅开放 SSH。


配置

持久存储

挂载卷以便在容器重启后保留您的流程、凭据和上传内容:

身份验证

使用用户名/密码保护您的 Flowise 实例:

安全提示: 在 Clore.ai 上公开暴露 Flowise 时始终设置凭据。没有身份验证时,任何拥有您服务器 IP 的人都可以访问您的流程和 API 密钥。

完整环境变量参考

变量
4s
默认值

PORT

Web 服务器端口

3000

FLOWISE_USERNAME

管理员用户名(启用身份验证)

—(无身份验证)

FLOWISE_PASSWORD

管理员密码

FLOWISE_SECRETKEY_OVERWRITE

用于凭据的加密密钥

自动生成

DATABASE_TYPE

sqlitemysqlpostgres

sqlite

DATABASE_PATH

SQLite 存储路径

/root/.flowise

LOG_LEVEL

error, warn, info, debug

info

TOOL_FUNCTION_BUILTIN_DEP

代码节点中允许的 Node.js 内置模块

TOOL_FUNCTION_EXTERNAL_DEP

代码节点中允许的 npm 包

CORS_ORIGINS

API 的允许 CORS 源

*

IFRAME_ORIGINS

允许的 iframe 嵌入来源

*

Docker Compose(推荐)

官方 Flowise 仓库包含 Docker Compose 配置。这是 Clore.ai 推荐的方法:

或者使用 PostgreSQL 创建您自己的:


GPU 加速(本地 LLM 集成)

Flowise 负责编排——连接服务中的 GPU 承担繁重计算。

Flowise + Ollama(推荐)

在同一 Clore.ai 服务器上运行 Ollama 并将 Flowise 连接到它:

在 Flowise UI 中:

  1. 创建一个新的 Chatflow

  2. 添加 Ollama 节点(在 Chat Models 下)

    • 基础 URL: http://host.docker.internal:11434

    • 模型名称: llama3.1:8b

  3. 添加 OllamaEmbeddings 节点(用于 RAG)

    • 基础 URL: http://host.docker.internal:11434

    • 模型名称: nomic-embed-text

  4. 连接到您的向量存储(Chroma、FAISS、Qdrant)

查看完整的 Ollama 指南 以获取模型下载和 GPU 设置。

Flowise + vLLM(生产级别)

用于兼容 OpenAI 的高吞吐量服务:

参见 vLLM 指南 以获得量化和多 GPU 配置的相关信息。

构建仅本地的 RAG 聊天机器人

在 Clore.ai 上完成的 Flowise 流,零外部 API 调用:

节点
组件
设置

1

PDF 文件加载器

上传文档

2

递归文本分割器

分块:1000,重叠:200

3

Ollama 嵌入

模型: nomic-embed-text

4

内存中向量存储

(或使用 Chroma 以持久化)

5

Ollama 聊天

模型: llama3.1:8b

6

会话检索式问答(Conversational Retrieval QA)

链类型:Stuff

7

缓冲记忆

基于会话的记忆

将此导出为 API 并在任何网站上嵌入聊天小部件。


提示与最佳实践

1. 定期导出流程

在停止或切换 Clore.ai 服务器之前:

2. 使用嵌入小部件

每个 Flowise 聊天流程都会生成一个可用于生产的聊天小部件:

  1. 打开您的 chatflow → 点击 </> (嵌入)按钮

  2. 复制脚本片段

  3. 粘贴到任何 HTML 页面 — 即刻获得客户支持机器人

3. 安全管理 API 密钥

将所有 LLM API 密钥存储在 Flowise 的 凭据 面板中(不要在流程中硬编码):

  • 菜单 → 凭据 → 添加凭据

  • 密钥使用以下方式加密: FLOWISE_SECRETKEY_OVERWRITE

4. 速率限制

对于面向公众的部署,在 Flowise 前通过 Nginx 或 Caddy 添加速率限制:

5. 监控性能

6. 备份 SQLite 数据库


# 使用固定种子以获得一致结果

容器立即退出

UI 显示 “连接失败”

流程出现 LLM 错误

更新时的数据库迁移错误

重启后凭据解密错误

聊天小部件 CORS 错误


延伸阅读

最后更新于

这有帮助吗?