快速入门

circle-check

步骤 1:创建账户并充值

  1. 前往 clore.aiarrow-up-right注册

  2. 验证你的电子邮件

  3. 前往 账户存款

  4. 通过以下方式添加资金 CLORE, BTC, USDT,或 USDC (最低约 $5 即可开始)

步骤 2:选择 GPU

前往 市场arrow-up-right 并根据你的任务进行选择:

我想要做的事
最低 GPU
预算/天

与 AI 聊天(7B 模型)

RTX 3060 12GB

~$0.15

与 AI 聊天(32B 模型)

RTX 4090 24GB

~$0.50

生成图像(FLUX)

RTX 3090 24GB

~$0.30

生成视频

RTX 4090 24GB

~$0.50

生成音乐

任何 4GB+ 的 GPU

~$0.15

语音克隆 / TTS

RTX 3060 6GB+

~$0.15

转录音频

RTX 3060 8GB+

~$0.15

微调模型

RTX 4090 24GB

~$0.50

运行 70B+ 模型

A100 80GB

~$2.00

triangle-exclamation

快速 GPU 指南

GPU
显存
价格
适用范围

RTX 3060

12GB

$0.15–0.30/天

TTS、音乐、小型模型

RTX 3090

24GB

$0.30–1.00/天

图像生成、32B 模型

RTX 4090

24GB

$0.50–2.00/天

最高可到 35B,推理快速

RTX 5090

32GB

$1.50–3.00/天

70B 量化,最快

A100 80GB

80GB

$2.00–4.00/天

70B FP16,严肃训练

H100 80GB

80GB

$3.00–6.00/天

400B+ MoE 模型

步骤 3:部署

点击 租用 你选择的服务器,然后配置:

  • 订单类型: 按需(保证)或竞价(便宜 30–50%,可能被中断)

  • Docker 镜像: 见下方配方

  • 端口: 务必包含 22/tcp (SSH)+ 你的应用端口

  • 环境: 添加任何所需的 API 密钥

🚀 一键配方

与 AI 聊天(Ollama + Open WebUI)

运行本地 AI 的最简单方式 — 类似 ChatGPT 的界面,可使用任何开源模型。

部署后,打开 HTTP URL → 创建账户 → 选择模型(Llama 4 Scout、Gemma 3、Qwen3.5)→ 开始聊天!

图像生成(ComfyUI)

用于 FLUX、Stable Diffusion 等的基于节点的工作流。

图像生成(Stable Diffusion WebUI)

Stable Diffusion、SDXL 和 SD 3.5 的经典 UI。

LLM API 服务器(vLLM)

具备 OpenAI 兼容 API 的生产级服务。

音乐生成(ACE-Step)

生成带人声的完整歌曲 — 适用于任何 4GB+ GPU!

SSH 登录,然后:

步骤 4:连接

订单开始后:

  1. 前往 我的订单 → 找到你的活跃订单

  2. Web 界面: 点击 HTTP URL(例如, https://xxx.clorecloud.net)

  3. SSH: ssh -p <port> root@<proxy-address>

circle-exclamation
部署
典型启动时间

Ollama + Open WebUI

3–5 分钟

ComfyUI

10–15 分钟

vLLM

5–15 分钟(取决于模型大小)

SD WebUI

10–20 分钟

步骤 5:开始创作

服务运行后,查看针对你具体用例的指南:

🤖 语言模型(聊天、编程、推理)

  • Ollama — 最简单的模型管理方式

  • Llama 4 Scout — Meta 最新,10M 上下文

  • Gemma 3 — Google 的 27B,表现超过 405B 模型

  • Qwen3.5 — 在数学上超过 Claude 4.5(2026 年 2 月!)

  • DeepSeek-R1 — 连锁思维推理

  • vLLM — 生产级 API 服务

🎨 图像生成

🎬 视频生成

  • FramePack — 仅需 6GB 显存!

  • Wan2.1 — 高质量的文本到视频与图像到视频

  • LTX-2 — 含音频的视频

  • CogVideoX — 知乎 AI 的视频模型

🔊 音频与语音

  • Qwen3-TTS — 语音克隆,支持 10+ 语言

  • WhisperX — 转录 + 说话人区分

  • Dia TTS — 多说话人对话

  • Kokoro — 微型 TTS,仅需 2GB 显存

🎵 音乐

  • ACE-Step — 在 < 4GB 显存上生成完整歌曲

💻 AI 编码

  • TabbyML — 自托管的 Copilot,每月 $4.50

  • Aider — 终端 AI 编码助手

🧠 训练

  • Unsloth — 提速 2 倍,节省 70% 显存

  • Axolotl — 基于 YAML 的微调

💡 初学者提示

  1. 从 Ollama 开始 — 这是在本地尝试 AI 最简单的方式

  2. RTX 4090 是最佳选择 — 以 $0.50–2/天 处理 90% 的用例

  3. 使用竞价订单 用于试验 — 便宜 30–50%

  4. 使用按需订单 用于重要工作 — 有保障,不会被中断

  5. 在订单结束前下载你的输出 — 文件会在结束后被删除

  6. 使用 CLORE 代币支付 — 通常比稳定币有更好费率

  7. 检查内存和网络 — 低内存是失败的头号原因

故障排除

问题
解决方案

长时间出现 HTTP 502

等待 10–20 分钟以完成首次启动;检查内存是否 ≥ 16GB

服务无法启动

内存过低(需要 16GB+)或显存不足以支持该模型

模型下载缓慢

首次运行时正常;优先选择 500Mbps+ 的服务器

CUDA 内存不足(Out of Memory)

使用更小的模型或更大的 GPU;尝试量化版本

无法 SSH

检查端口是否在 22/tcp 配置中;等待服务器完全启动

🐍 Python SDK 与 CLI(推荐)

更喜欢编码而不是点击?安装官方 SDK:

或直接使用 Python:

完整 Python 快速入门 | SDK 指南 | 异步操作、现货市场、服务器管理、错误处理

需要帮助?

最后更新于

这有帮助吗?