AnythingLLM RAG 平台
在 Clore.ai 上部署 AnythingLLM —— 一体化 RAG 应用与 AI 代理平台,内置文档聊天、无代码代理构建器和 MCP 支持,在经济高效的 GPU 云服务器上运行。
概览
架构概览
┌─────────────────────────────────────────────┐
│ AnythingLLM (端口 3001) │
│ │
│ ┌──────────┐ ┌──────────┐ ┌──────────┐ │
│ │ RAG/文档 │ │ 代理 │ │ 用户 │ │
│ └────┬─────┘ └────┬─────┘ └──────────┘ │
│ │ │ │
│ ┌────▼─────────────▼───────┐ │
│ │ LLM 提供者路由器 │ │
│ └──────────────┬───────────┘ │
└─────────────────┼───────────────────────────┘
│
┌────────────┼────────────┐
▼ ▼ ▼
OpenAI Anthropic Ollama(本地)
Claude Gemini vLLM(本地)要求
服务器规格
组件
最低
推荐
注意事项
Clore.ai 价格参考
服务器类型
大致费用
模型变体
先决条件
快速开始
方法 1:单个 Docker 容器(推荐)
方法 2:Docker Compose(多服务)
方法 3:使用预配置环境变量
配置
LLM 提供者选项
嵌入配置
引擎
后端
需要 GPU
质量
向量数据库选项
数据库
4s
最适合
工作区配置
文档摄取
GPU 加速
在同一 Clore.ai 服务器上运行 Ollama
Clore.ai 上的 GPU-模型性能
A100
GPU
显存
嵌入速度
推理速度
每小时成本
提示与最佳实践
文档摄取最佳实践
在 Clore.ai 上的成本管理
多用户设置
AI 代理配置
性能调优
更新 AnythingLLM
# 使用固定种子以获得一致结果
容器启动但 UI 无法访问
文档上传失败
RAG 响应质量差 / 幻觉问题
AnythingLLM 无法连接到 Ollama
内存耗尽 / 容器崩溃
延伸阅读
最后更新于
这有帮助吗?