概览

在 Clore.ai GPU 上自托管的 AI 编码工具

在 Clore.ai 租用 GPU,本地通过 Ollama 或 vLLM 运行 LLM,并连接代码助手 — 你将获得一个完全 私有的 AI 开发环境 你的代码永远不会离开机器。无需管理 API 密钥、无需令牌限额、无需将数据发送到第三方服务器。

工作原理

Clore.ai GPU  →  Ollama / vLLM(本地 LLM) → 代码工具(Aider、TabbyML)
                     ↑                              ↑
              RTX 4090 / A100               通过 localhost:11434 或 :8000 连接
  1. 租用 GPUclore.ai/marketplacearrow-up-right — RTX 3090($0.30–1/天)或 RTX 4090($0.50–2/天)

  2. 部署 LLMollama run deepseek-r1:32b 或使用任何面向编码的模型启动 vLLM

  3. 启动你的代码工具 — 它通过 localhost 与 LLM 通信,完成代码、编写测试并进行重构

可用指南

指南
工具
4s

Aider

基于终端的 AI 配对程序员 — 通过自然语言直接在你的仓库中编辑文件

Tabby

带有 IDE 扩展(VS Code、JetBrains)的自托管代码补全服务器

为什么在 Clore.ai 自托管?

  • 隐私 — 你的代码库保留在租用的实例上,而不是在 OpenAI/Anthropic 的服务器上

  • 无速率限制 — 以 GPU 速度无限次完成请求

  • 成本控制 — 按小时/天付费,空闲时关闭实例

  • 模型选择 — 运行任何开源模型:DeepSeek-R1、Qwen 2.5 Coder、CodeLlama、StarCoder2

最后更新于

这有帮助吗?