# 概览

在 Clore.ai 租用 GPU，本地通过 Ollama 或 vLLM 运行 LLM，并连接代码助手 — 你将获得一个完全 **私有的 AI 开发环境** 你的代码永远不会离开机器。无需管理 API 密钥、无需令牌限额、无需将数据发送到第三方服务器。

## 工作原理

```
Clore.ai GPU  →  Ollama / vLLM（本地 LLM） → 代码工具（Aider、TabbyML）
                     ↑                              ↑
              RTX 4090 / A100               通过 localhost:11434 或 :8000 连接
```

1. **租用 GPU** 在 [clore.ai/marketplace](https://clore.ai/marketplace) — RTX 3090（$0.30–1/天）或 RTX 4090（$0.50–2/天）
2. **部署 LLM** — `ollama run deepseek-r1:32b` 或使用任何面向编码的模型启动 vLLM
3. **启动你的代码工具** — 它通过 localhost 与 LLM 通信，完成代码、编写测试并进行重构

## 可用指南

| 指南                                                                            | 工具    | 4s                                      |
| ----------------------------------------------------------------------------- | ----- | --------------------------------------- |
| [Aider](https://docs.clore.ai/guides/guides_v2-zh/ai-bian-ma-gong-ju/aider)   | Aider | 基于终端的 AI 配对程序员 — 通过自然语言直接在你的仓库中编辑文件     |
| [TabbyML](https://docs.clore.ai/guides/guides_v2-zh/ai-bian-ma-gong-ju/tabby) | Tabby | 带有 IDE 扩展（VS Code、JetBrains）的自托管代码补全服务器 |

## 为什么在 Clore.ai 自托管？

* **隐私** — 你的代码库保留在租用的实例上，而不是在 OpenAI/Anthropic 的服务器上
* **无速率限制** — 以 GPU 速度无限次完成请求
* **成本控制** — 按小时/天付费，空闲时关闭实例
* **模型选择** — 运行任何开源模型：DeepSeek-R1、Qwen 2.5 Coder、CodeLlama、StarCoder2
