MetaGPT 软件公司

在 Clore.ai 上部署 MetaGPT —— 在价格合理的 GPU 云服务器上运行完全自主的多代理 AI 软件公司,从单一输入生成完整代码库、产品需求文档、架构设计和 QA 测试。

概览

MetaGPTarrow-up-right 是一个多代理人工智能框架,模拟一个 软件公司 —— 配备产品经理、架构师、工程师和 QA 工程师代理 —— 共同协作将一句话的想法变成一个功能完整的软件项目。MetaGPT 在 GitHub 上拥有 45K+ 星,是推动 AI 驱动软件开发的最具创新性的方法之一。

与单一编码代理不同,MetaGPT 模仿真实的团队工作流程。当你给它像“用 Python 构建一个贪吃蛇游戏”这样的任务时,它会:

  1. 产品经理 —— 撰写产品需求文档(PRD)

  2. 架构师 —— 设计系统架构和技术栈

  3. 项目经理 —— 拆解任务并进行分配

  4. 工程师 —— 为各个组件编写实际可运行的代码

  5. QA 工程师 —— 编写单元测试并验证实现

结果是一个包含代码、文档和测试的完整项目目录——由系统自主生成。

主要功能:

  • 完整的软件生命周期 —— 从需求到可运行代码,一条命令搞定

  • 基于角色的代理 —— 具有明确职责的专业化代理

  • 文档生成 —— 自动生成 PRD、系统设计、API 规范

  • 多语言支持 —— 支持 Python、Node.js、Go 等

  • 数据解释器 —— 自主进行数据分析和可视化的代理

  • 增量开发 —— 向现有项目添加功能

  • 人工交互模式 —— 在关键阶段暂停以供人工审查

为什么为 MetaGPT 选择 Clore.ai?

MetaGPT 本身基于 CPU,但 Clore.ai 提供了关键优势:

  • 长时间运行任务 —— MetaGPT 生成可能需要 10–60 分钟;专用服务器可以处理这些任务而不会超时

  • 本地 LLM 后端 —— 使用 Ollama 或 vLLM 可消除大型项目的按令牌 API 成本

  • 成本控制 —— 以 $0.20–0.35/小时 的费用运行,大规模 MetaGPT 会话比调用 GPT-4o API 更便宜

  • 隔离环境 —— 生成的代码在受控的服务器环境中运行

  • 团队协作 —— 在开发团队之间共享一个 MetaGPT 服务器端点


要求

MetaGPT 协调 LLM 的 API 调用 —— 只有在运行本地 LLM 后端时才需要 GPU。

配置
GPU
显存
内存
存储
预计价格

MetaGPT + OpenAI/Anthropic API

4 GB

20 GB

~$0.03–0.08/小时

+ Ollama(Qwen2.5-Coder 7B)

速度

24 GB

16 GB

40 GB

~$0.20/小时

+ Ollama(DeepSeek Coder 33B)

512x512

24 GB

32 GB

60 GB

~$0.35/小时

+ vLLM(Qwen2.5-Coder 32B)

512x512

24 GB

32 GB

80 GB

~$0.35/小时

+ vLLM(Llama 3.1 70B)

4 小时会话

80 GB

64 GB

100 GB

~$1.10/小时

建议: MetaGPT 在连贯的多步骤推理上高度依赖模型质量。对于复杂项目,请使用 GPT-4o 或 Claude Sonnet 3.5 的 API,或在本地使用 Qwen2.5-Coder-32B / DeepSeek-Coder-V2。请参阅 GPU 比较指南.

Clore.ai 服务器上的软件要求:

  • Docker 引擎(所有 Clore.ai 镜像预装)

  • NVIDIA 容器工具包(仅针对本地 LLM 选项)

  • 20+ GB 可用磁盘空间(MetaGPT 镜像 + 生成的项目文件)

  • 出站互联网访问(用于拉取 Docker 镜像和访问 LLM API)


快速开始

第 1 步:连接到你的 Clore.ai 服务器

在上预订服务器 Clore.ai 市场arrow-up-right:

  • 仅 API 模式:任意 ≥4 GB 内存的服务器

  • 本地 LLM 模式:≥24 GB 显存的 GPU

第 2 步:拉取 MetaGPT Docker 镜像

MetaGPT 镜像约为 ~3 GB。首次拉取可能需要 2–5 分钟。

第 3 步:设置配置

MetaGPT 需要一个包含您 LLM API 凭证的 YAML 配置文件:

第 4 步:配置您的 LLM 提供商

编辑配置文件:

对于 OpenAI(GPT-4o):

对于 Anthropic(Claude):

对于本地 Ollama(参见 GPU 部分):

第 5 步:运行您的第一个 MetaGPT 项目

观察代理的工作:您将依次看到 PRD 生成、系统设计、代码编写和测试。根据您使用的 LLM,预计需时 5–15 分钟。

第 6 步:查看输出


配置

完整配置参考

以交互模式运行

如需更多控制,可在 MetaGPT 中启用人工审查检查点:

使用 --human-review,MetaGPT 会在 PRD 和系统设计阶段之后暂停,允许您在工程开始前提供反馈。

增量开发(向现有项目添加功能)

运行数据解释器

MetaGPT 包含一个用于数据分析的专用数据解释器代理:

用于持久化部署的 Docker Compose


GPU 加速(本地 LLM 集成)

MetaGPT + Ollama

使用本地编码模型可完全免费运行 MetaGPT(无需 API 成本):

参见完整的 Ollama 指南 以获取模型设置和 GPU 优化说明。

MetaGPT + vLLM(高吞吐)

针对大型复杂项目以获得最大令牌吞吐量:

参见 vLLM 指南 有关量化选项和多 GPU 设置的说明。

按任务推荐的模型

任务类型
A100
最小显存
注意事项

简单脚本

qwen2.5-coder:7b

8 GB

快速,适合 CLI 工具

中型项目

qwen2.5-coder:14b

12 GB

良好平衡

复杂系统

qwen2.5-coder:32b

24 GB

最佳本地选项

大型代码库

gpt-4o / claude-3-5-sonnet

API

在复杂 PRD 上最可靠

提示: 本地模型在代码生成方面表现良好,但有时在复杂的架构推理上会遇到困难。对于生产级的 PRD 和系统设计,建议在规划阶段使用 GPT-4o 或 Claude,而使用本地模型来生成代码。


提示与最佳实践

1. 编写有效的任务提示

MetaGPT 的性能在很大程度上取决于您初始提示的质量:

2. 在运行前估算 API 成本

3. 首先审查生成的 PRD

使用 --human-review 对于重要项目尤其如此。PRD 阶段是锁定需求的环节——在此处发现问题相比在代码生成后修改可以节省大量令牌成本。

4. 测试生成的代码

MetaGPT 会生成单元测试,但请务必验证:

5. 使用版本控制

6. 批量运行多个项目

在 Clore.ai 上一夜之间运行多个项目以获得最大价值:


# 使用固定种子以获得一致结果

镜像拉取失败

配置文件未找到

LLM API 认证错误

容器中 Ollama 连接被拒绝

生成挂起或超时

磁盘空间不足

“修复 LLM 输出” 循环


延伸阅读

最后更新于

这有帮助吗?