Dify.ai 工作流平台

在 Clore.ai 上部署 Dify.ai —— 使用可视化界面以 GPU 云价格构建可投入生产的 AI 工作流、RAG 管道和代理应用。

概览

Dify.aiarrow-up-right 是一个开源的 LLM 应用开发平台,具有 114K+ GitHub 星标。它将可视化工作流构建器、检索增强生成(RAG)管道、Agent 协调、模型管理和一键 API 部署层整合到一个可自托管的堆栈中。

Clore.ai 您可以在租用的 GPU 服务器上以最低约运行完整的 Dify 堆栈——包括其 Postgres 数据库、Redis 缓存、Weaviate 向量存储、Nginx 反向代理、API 工作进程和 Web 前端,费用低至 $0.20–$0.35/小时 (RTX 3090/4090)。GPU 对 Dify 本身是可选的,但当您通过 Ollama 或 vLLM 后端集成本地模型推理时,GPU 就变得至关重要。

主要功能:

  • 🔄 可视化工作流构建器 — 支持分支、循环和条件逻辑的拖放式 LLM 管道

  • 📚 RAG 管道 — 上传 PDF、URL、Notion 页面;切片 + 嵌入 + 检索均在 UI 中管理

  • 🤖 Agent 模式 — 支持 ReAct 与函数调用的 agent,并能使用工具(网络搜索、代码解释器、自定义 API)

  • 🚀 API 优先 — 每个应用都会即时生成一个 REST 端点和 SDK 代码片段

  • 🔌 100+ 模型集成 — OpenAI、Anthropic、Mistral、Cohere,以及通过 Ollama/vLLM 的本地模型

  • 🏢 多租户 — 团队、工作区、RBAC、使用配额


要求

Dify 作为多容器的 Docker Compose 堆栈运行。用于开发的最低可行服务器是纯 CPU 实例;若要在生产中启用本地模型推理,您需要一个 GPU 节点。

配置
GPU
显存
系统内存
磁盘
Clore.ai 价格

最小 (仅 API 密钥)

无 / 仅 CPU

8 GB

30 GB

~$0.05/小时(CPU)

标准

RTX 3080

10 GB

16 GB

50 GB

约 $0.15/小时

推荐

RTX 3090 / 4090

24 GB

32 GB

80 GB

$0.20–0.35/小时

生产 + 本地 LLM

A100 80 GB

80 GB

64 GB

200 GB

~$1.10/小时

高吞吐量

H100 SXM

80 GB

128 GB

500 GB

~$2.50/小时

提示: 如果您仅使用云 API 提供商(OpenAI、Anthropic 等),任何 2 核 CPU、8 GB 内存的实例都可工作。只有在通过 Ollama 或 vLLM 运行本地模型时才需要 GPU —— 详见 GPU 加速 下文。

磁盘说明

随着文档上传,Weaviate 和 Postgres 数据会迅速增长。请预留 至少 50 GB 并通过 Clore.ai 的卷选项挂载持久存储。


快速开始

1. 租用 Clore.ai 服务器

浏览到 clore.aiarrow-up-right,按所需 GPU 筛选,然后部署带有以下配置的服务器:

  • 已预装 Docker (所有 Clore 镜像均包含它)

  • 开放端口 80443 (如需,可在报价设置中添加自定义端口)

  • 已启用 SSH 访问

2. 连接并准备服务器

3. 克隆 Dify 并启动

4. 验证所有服务运行健康

5. 访问 Web 界面

在浏览器中打开并访问:

首次启动时,Dify 会将您重定向到设置向导以创建管理员账户。完成向导后登录即可。


配置

所有配置都存放在 dify/docker/.env。以下是最重要的设置:

必要的环境变量

更改暴露端口

默认情况下 Nginx 监听端口为 80。要更改它:

持久化数据卷

Dify 的 Compose 文件默认挂载以下卷:

要备份:


GPU 加速

Dify 的核心平台基于 CPU,但通过集成 OllamavLLM 作为模型提供者即可启用本地模型推理——两者都极大受益于 GPU。

选项 A:Ollama 旁车(最简单)

在同一 Clore 服务器上与 Dify 并行运行 Ollama:

然后在 Dify UI → 设置 → 模型提供者 → Ollama:

  • 基础 URL: http://localhost:11434

  • 选择您的模型并保存

完整的 Ollama 指南,请参见 language-models/ollama.md.

选项 B:vLLM 旁车(高吞吐量)

然后在 Dify UI → 设置 → 模型提供者 → OpenAI 兼容:

  • 基础 URL: http://localhost:8000/v1

  • API 密钥: dummy

  • 模型名称: mistralai/Mistral-7B-Instruct-v0.2

有关完整的 vLLM 设置,请参见 language-models/vllm.md.

本地模型的 GPU 显存建议

A100
所需显存
推荐的 Clore GPU

Llama 3 8B(Q4)

6 GB

按小时费率

Llama 3 8B(FP16)

16 GB

RTX 3090 / 4090

Mistral 7B(Q4)

5 GB

按小时费率

Llama 3 70B(Q4)

40 GB

按日费率

Llama 3 70B(FP16)

140 GB

2× H100


提示与最佳实践

在 Clore.ai 上的成本优化

使用 Caddy 启用 HTTPS(生产建议)

为重负载扩展 worker 数量

监控资源使用情况

RAG 性能调优

  • 设置 切片大小 对大多数文档类型为 512–1024 令牌

  • 启用 父子检索 用于数据集设置中的长文档

  • 使用 混合搜索 (关键词 + 向量),在技术内容上可获得更好的召回率

  • 在非高峰时段索引文档以避免 API 速率限制


# 使用固定种子以获得一致结果

服务不断重启

启动时出现 “Migration failed”

无法从 Dify 连接到 Ollama

磁盘空间不足

Weaviate 向量存储错误

端口 80 已被占用


延伸阅读

最后更新于

这有帮助吗?