Flowise AI 代理构建器
在 Clore.ai 上部署 Flowise —— 在价格合理的 GPU 云服务器上构建和托管可视化 LLM 聊天机器人、AI 代理和 RAG 管道,提供拖放无代码界面和即时 API 端点。
概览
Flowise 是一个开源的拖放工具,用于构建无需编写代码即可运行大型语言模型(LLM)的应用。拥有 35K+ GitHub 星标 和 超过 500 万次 Docker Hub 拉取,Flowise 已成为生态系统中部署最多的自托管 AI 工具之一。它使团队能够通过直观的可视界面创建聊天机器人、RAG 系统、AI 代理和自动化工作流——并在几分钟内将它们作为 REST API 端点部署。
Flowise 建立在 LangChain.js 之上,提供了一个基于节点的画布,您可以在其中连接组件:LLM、向量数据库、文档加载器、记忆存储、工具和代理。每个流程会自动生成可嵌入的聊天小部件和 API 端点,您可以将其集成到任何应用中。
主要功能:
拖放式流程构建器 — 可视化 LLM 编排,包含 100+ 预构建节点
聊天机器人创建 — 可嵌入的网站和应用聊天小部件
RAG 管道 — 可视化连接文档加载器、嵌入器和向量存储
多代理支持 — 构建具有工具使用和委派功能的代理层次结构
即时 API — 每个流程都会生成一个
/api/v1/prediction/<flowId>端点LangChain 节点 — 完全访问 LangChain.js 生态系统
凭据管理器 — 集中管理 API 密钥、数据库连接
为什么为 Flowise 选择 Clore.ai?
Flowise 是一个轻量级的 Node.js 服务器——它负责编排,而不是计算。将其与 Clore.ai 配合可以实现:
本地模型推理 — 在同一 GPU 服务器上运行 Ollama 或 vLLM,消除 API 成本
私有文档处理 — 不会将数据发送到外部服务的 RAG 管道
持久部署 — 以 GPU 服务器价格提供始终在线的聊天机器人和 API 托管
大规模时具有成本效益 — 构建多租户聊天机器人平台而无需按调用的 API 费用
全栈 AI 托管 — Flowise + Ollama + Qdrant/Chroma 都在一台实惠的服务器上
要求
Flowise 本身是一个 Node.js 应用,对资源要求最低。仅在添加本地 LLM 后端时才需要 GPU。
仅 Flowise(外部 API)
无
—
2–4 GB
10 GB
~$0.03–0.08/小时
+ Ollama(Llama 3.1 8B)
速度
24 GB
16 GB
40 GB
~$0.20/小时
+ Ollama(Mistral 7B + 嵌入)
速度
24 GB
16 GB
30 GB
~$0.20/小时
+ Ollama(Qwen2.5 32B)
512x512
24 GB
32 GB
60 GB
~$0.35/小时
+ vLLM(生产)
4 小时会话
80 GB
64 GB
100 GB
~$1.10/小时
注意: Flowise 可在任何 Clore.ai 服务器上轻松运行。只有在希望进行本地免费推理时才需要 GPU。请参见 GPU 比较指南.
Clore.ai 服务器要求:
Docker 引擎(所有 Clore.ai 镜像预装)
NVIDIA 容器工具包(仅用于 GPU/Ollama)
端口 3000 可访问(或在 Clore.ai 仪表板中映射)
至少 2 GB 空闲内存,10 GB 磁盘空间
快速开始
第 1 步:在 Clore.ai 上预订服务器
在 Clore.ai 市场:
仅用于 API:任意服务器,筛选 RAM ≥ 4 GB
用于本地 LLM:筛选 GPU ≥ 24 GB 显存
确保模板中启用了 Docker
通过 SSH 连接:
第 2 步:运行 Flowise(单条命令)
就是这样。Flowise 将在 http://<server-ip>:3000 在 20–30 秒内可用。
第 3 步:验证其是否正在运行
第 4 步:打开 UI
在浏览器中导航到 http://<server-ip>:3000 。
Clore.ai 端口映射: 确保在 Clore.ai 服务器配置中转发端口 3000。进入服务器详细信息 → 端口 → 确认
3000:3000已映射。有些模板默认仅开放 SSH。
配置
持久存储
挂载卷以便在容器重启后保留您的流程、凭据和上传内容:
身份验证
使用用户名/密码保护您的 Flowise 实例:
安全提示: 在 Clore.ai 上公开暴露 Flowise 时始终设置凭据。没有身份验证时,任何拥有您服务器 IP 的人都可以访问您的流程和 API 密钥。
完整环境变量参考
PORT
Web 服务器端口
3000
FLOWISE_USERNAME
管理员用户名(启用身份验证)
—(无身份验证)
FLOWISE_PASSWORD
管理员密码
—
FLOWISE_SECRETKEY_OVERWRITE
用于凭据的加密密钥
自动生成
DATABASE_TYPE
sqlite 或 mysql 或 postgres
sqlite
DATABASE_PATH
SQLite 存储路径
/root/.flowise
LOG_LEVEL
error, warn, info, debug
info
TOOL_FUNCTION_BUILTIN_DEP
代码节点中允许的 Node.js 内置模块
—
TOOL_FUNCTION_EXTERNAL_DEP
代码节点中允许的 npm 包
—
CORS_ORIGINS
API 的允许 CORS 源
*
IFRAME_ORIGINS
允许的 iframe 嵌入来源
*
Docker Compose(推荐)
官方 Flowise 仓库包含 Docker Compose 配置。这是 Clore.ai 推荐的方法:
或者使用 PostgreSQL 创建您自己的:
GPU 加速(本地 LLM 集成)
Flowise 负责编排——连接服务中的 GPU 承担繁重计算。
Flowise + Ollama(推荐)
在同一 Clore.ai 服务器上运行 Ollama 并将 Flowise 连接到它:
在 Flowise UI 中:
创建一个新的 Chatflow
添加 Ollama 节点(在 Chat Models 下)
基础 URL:
http://host.docker.internal:11434模型名称:
llama3.1:8b
添加 OllamaEmbeddings 节点(用于 RAG)
基础 URL:
http://host.docker.internal:11434模型名称:
nomic-embed-text
连接到您的向量存储(Chroma、FAISS、Qdrant)
查看完整的 Ollama 指南 以获取模型下载和 GPU 设置。
Flowise + vLLM(生产级别)
用于兼容 OpenAI 的高吞吐量服务:
参见 vLLM 指南 以获得量化和多 GPU 配置的相关信息。
构建仅本地的 RAG 聊天机器人
在 Clore.ai 上完成的 Flowise 流,零外部 API 调用:
1
PDF 文件加载器
上传文档
2
递归文本分割器
分块:1000,重叠:200
3
Ollama 嵌入
模型: nomic-embed-text
4
内存中向量存储
(或使用 Chroma 以持久化)
5
Ollama 聊天
模型: llama3.1:8b
6
会话检索式问答(Conversational Retrieval QA)
链类型:Stuff
7
缓冲记忆
基于会话的记忆
将此导出为 API 并在任何网站上嵌入聊天小部件。
提示与最佳实践
1. 定期导出流程
在停止或切换 Clore.ai 服务器之前:
2. 使用嵌入小部件
每个 Flowise 聊天流程都会生成一个可用于生产的聊天小部件:
打开您的 chatflow → 点击 </> (嵌入)按钮
复制脚本片段
粘贴到任何 HTML 页面 — 即刻获得客户支持机器人
3. 安全管理 API 密钥
将所有 LLM API 密钥存储在 Flowise 的 凭据 面板中(不要在流程中硬编码):
菜单 → 凭据 → 添加凭据
密钥使用以下方式加密:
FLOWISE_SECRETKEY_OVERWRITE
4. 速率限制
对于面向公众的部署,在 Flowise 前通过 Nginx 或 Caddy 添加速率限制:
5. 监控性能
6. 备份 SQLite 数据库
# 使用固定种子以获得一致结果
容器立即退出
UI 显示 “连接失败”
流程出现 LLM 错误
更新时的数据库迁移错误
重启后凭据解密错误
聊天小部件 CORS 错误
延伸阅读
Flowise GitHub 仓库 — 源代码、发布、官方 docker-compose
Flowise 文档 — 节点参考、API 文档、部署指南
Flowise Discord — 社区模板、流程共享、支持
Docker Hub:flowiseai/flowise — 500 万+ 次拉取,可用标签
Clore.ai 上的 Ollama — 运行本地 LLM 以免费进行 Flowise 推理
Clore.ai 上的 vLLM — 为 Flowise 提供生产级别的 LLM 服务
GPU 比较指南 — 为您的技术栈选择合适的 GPU
LangChain.js 文档 — 底层框架参考
最后更新于
这有帮助吗?