快速入门

circle-check

第 1 步:创建账户并充值

  1. 前往 clore.aiarrow-up-right注册

  2. 验证您的电子邮件

  3. 前往 账户存款

  4. 通过以下方式添加资金 CLORE, BTC, USDT,或 USDC (开始最低约 $5)

第 2 步:选择 GPU

前往 市场arrow-up-right 并根据你的任务进行选择:

我想做的事
最低 GPU
预算/天

与 AI 聊天(7B 模型)

RTX 3060 12GB

~$0.15

与 AI 聊天(32B 模型)

RTX 4090 24GB

~$0.50

生成图像(FLUX)

RTX 3090 24GB

~$0.30

生成视频

RTX 4090 24GB

~$0.50

生成音乐

任何 4GB+ 的 GPU

~$0.15

语音克隆 / 文本转语音(TTS)

RTX 3060 6GB+

~$0.15

转录音频

RTX 3060 8GB+

~$0.15

微调模型

RTX 4090 24GB

~$0.50

运行 70B+ 模型

4 小时会话

~$2.00

triangle-exclamation

快速 GPU 指南

GPU
显存
价格
最佳选择

按小时费率

12GB

$0.15–0.30/天

TTS、音乐、小模型

速度

24GB

$0.30–1.00/天

图像生成、32B 模型

512x512

24GB

$0.50–2.00/天

涵盖到 35B 的一切,推理速度快

RTX 5090

32GB

$1.50–3.00/天

70B 量化,最快

4 小时会话

80GB

$2.00–4.00/天

70B FP16,专业训练

H100 80GB

80GB

$3.00–6.00/天

400B+ MoE 模型

第 3 步:部署

点击 租用 在你选择的服务器上,然后配置:

  • 订购类型: 按需(有保障)或抢占(便宜 30–50%,可能被中断)

  • Docker 镜像: 见下方指令模板

  • 端口: 始终包含 22/tcp (SSH)+ 你的应用端口

  • 环境: 添加任何所需的 API 密钥

🚀 一键指令模板

与 AI 聊天(Ollama + Open WebUI)

运行本地 AI 的最简单方式—带有类似 ChatGPT 的界面,支持任意开源模型。

部署后,打开 HTTP URL → 创建账户 → 选择模型(Llama 4 Scout、Gemma 3、Qwen3.5)→ 开始聊天!

图像生成(ComfyUI)

基于节点的工作流,用于 FLUX、Stable Diffusion 等。

图像生成(Stable Diffusion WebUI)

Stable Diffusion、SDXL 和 SD 3.5 的经典界面。

LLM API 服务器(vLLM)

支持 OpenAI 兼容 API 的生产级服务。

音乐生成(ACE-Step)

生成带人声的完整歌曲 — 任何 4GB+ GPU 都可运行!

SSH 登录,然后:

第 4 步:连接

在您的订单启动后:

  1. 前往 我的订单 → 找到你正在运行的订单

  2. Web 界面: 点击 HTTP URL(例如, https://xxx.clorecloud.net)

  3. SSH: ssh -p <port> root@<proxy-address>

circle-exclamation
部署
典型启动时间

Ollama + Open WebUI

3–5 分钟

ComfyUI

10–15 分钟

vLLM

5–15 分钟(取决于模型大小)

SD WebUI

10–20 分钟

第 5 步:开始创作

服务运行后,查看针对你具体用例的指南:

🤖 语言模型(聊天、代码、推理)

  • Ollama — 最简单的模型管理

  • Llama 4 Scout — Meta 的最新模型,10M 上下文

  • Gemma 3 — 谷歌的 27B,超越 405B 模型

  • Qwen3.5 — 在数学上超过 Claude 4.5(2026 年 2 月!)

  • DeepSeek-R1 — 链式思维(chain-of-thought)推理

  • vLLM — 生产级 API 服务

🎨 图像生成

🎬 视频生成

  • FramePack — 仅需 6GB 显存!

  • Wan2.1 — 高质量的 T2V(文本到视频)+ I2V(图像到视频)

  • LTX-2 — 带音频的视频

  • CogVideoX — 知乎 AI(智谱 AI)的视视频模型

🔊 音频与语音

  • Qwen3-TTS — 语音克隆,支持 10+ 种语言

  • WhisperX — 转录 + 说话人分离

  • Dia TTS — 多说话人对话

  • Kokoro — 迷你 TTS,仅需 2GB 显存

🎵 音乐

  • ACE-Step — 在 < 4GB 显存上生成完整歌曲

💻 AI 编码

  • TabbyML — 自托管 Copilot,每月 $4.50 起

  • Aider — 终端 AI 编码助手

🧠 训练

  • Unsloth — 速度提升 2 倍,显存减少 70%

  • Axolotl — 基于 YAML 的微调

💡 初学者提示

  1. 从 Ollama 开始 — 这是在本地尝试 AI 最简单的方式

  2. RTX 4090 是最佳选择 — 在 $0.50–2/天 的价格区间可应对 90% 的使用场景

  3. 使用抢占订单(Spot) 进行实验 — 便宜 30–50%

  4. 使用按需订单(On-Demand) 用于重要工作 — 有保障,不会被中断

  5. 在订单结束前下载你的输出 —— 订单结束后文件将被删除

  6. 使用 CLORE 代币支付 — 往往比稳定币费率更优

  7. 检查内存和网络 — 内存不足是失败的首要原因

# 使用固定种子以获得一致结果

问题
解决方案

长时间出现 HTTP 502

首次启动需等待 10–20 分钟;检查内存是否 ≥ 16GB

服务无法启动

内存过低(需 16GB+)或显存不足以运行该模型

模型下载缓慢

首次运行时正常;建议选择 500Mbps+ 的服务器

CUDA 内存不足(out of memory)

使用更小的模型或更大的 GPU;尝试量化版本

无法 SSH

检查端口是否在 22/tcp 配置中;等待服务器完全启动

需要帮助?

最后更新于

这有帮助吗?