快速入门
无需事先具备 GPU 或 AI 经验。本指南让你在 5 分钟内从零开始运行 AI。
步骤 1:创建账户并充值
前往 clore.ai → 注册
验证你的电子邮件
前往 账户 → 存款
通过以下方式添加资金 CLORE, BTC, USDT,或 USDC (最低约 $5 即可开始)
步骤 2:选择 GPU
前往 市场 并根据你的任务进行选择:
与 AI 聊天(7B 模型)
RTX 3060 12GB
~$0.15
与 AI 聊天(32B 模型)
RTX 4090 24GB
~$0.50
生成图像(FLUX)
RTX 3090 24GB
~$0.30
生成视频
RTX 4090 24GB
~$0.50
生成音乐
任何 4GB+ 的 GPU
~$0.15
语音克隆 / TTS
RTX 3060 6GB+
~$0.15
转录音频
RTX 3060 8GB+
~$0.15
微调模型
RTX 4090 24GB
~$0.50
运行 70B+ 模型
A100 80GB
~$2.00
重要 — 不仅要检查 GPU!
内存: 大多数 AI 工作负载最低 16GB+
网络: 建议 500Mbps+(模型从 HuggingFace 下载)
磁盘: 模型存储需 50GB+ 可用空间
快速 GPU 指南
RTX 3060
12GB
$0.15–0.30/天
TTS、音乐、小型模型
RTX 3090
24GB
$0.30–1.00/天
图像生成、32B 模型
RTX 4090
24GB
$0.50–2.00/天
最高可到 35B,推理快速
RTX 5090
32GB
$1.50–3.00/天
70B 量化,最快
A100 80GB
80GB
$2.00–4.00/天
70B FP16,严肃训练
H100 80GB
80GB
$3.00–6.00/天
400B+ MoE 模型
步骤 3:部署
点击 租用 你选择的服务器,然后配置:
订单类型: 按需(保证)或竞价(便宜 30–50%,可能被中断)
Docker 镜像: 见下方配方
端口: 务必包含
22/tcp(SSH)+ 你的应用端口环境: 添加任何所需的 API 密钥
🚀 一键配方
与 AI 聊天(Ollama + Open WebUI)
运行本地 AI 的最简单方式 — 类似 ChatGPT 的界面,可使用任何开源模型。
部署后,打开 HTTP URL → 创建账户 → 选择模型(Llama 4 Scout、Gemma 3、Qwen3.5)→ 开始聊天!
图像生成(ComfyUI)
用于 FLUX、Stable Diffusion 等的基于节点的工作流。
图像生成(Stable Diffusion WebUI)
Stable Diffusion、SDXL 和 SD 3.5 的经典 UI。
LLM API 服务器(vLLM)
具备 OpenAI 兼容 API 的生产级服务。
音乐生成(ACE-Step)
生成带人声的完整歌曲 — 适用于任何 4GB+ GPU!
SSH 登录,然后:
步骤 4:连接
订单开始后:
前往 我的订单 → 找到你的活跃订单
Web 界面: 点击 HTTP URL(例如,
https://xxx.clorecloud.net)SSH:
ssh -p <port> root@<proxy-address>
首次启动需要 5–20 分钟 — 服务器正在从 HuggingFace 下载 AI 模型。在此期间出现 HTTP 502 错误是正常的。请等待并刷新。
Ollama + Open WebUI
3–5 分钟
ComfyUI
10–15 分钟
vLLM
5–15 分钟(取决于模型大小)
SD WebUI
10–20 分钟
步骤 5:开始创作
服务运行后,查看针对你具体用例的指南:
🤖 语言模型(聊天、编程、推理)
Ollama — 最简单的模型管理方式
Llama 4 Scout — Meta 最新,10M 上下文
Gemma 3 — Google 的 27B,表现超过 405B 模型
Qwen3.5 — 在数学上超过 Claude 4.5(2026 年 2 月!)
DeepSeek-R1 — 连锁思维推理
vLLM — 生产级 API 服务
🎨 图像生成
FLUX.2 Klein — 每张图像 < 0.5 秒!
ComfyUI — 基于节点的工作流
FLUX.1 — 使用 LoRA + ControlNet 的最高质量
Stable Diffusion 3.5 — 最佳文本渲染
🎬 视频生成
🔊 音频与语音
🎵 音乐
ACE-Step — 在 < 4GB 显存上生成完整歌曲
💻 AI 编码
🧠 训练
💡 初学者提示
从 Ollama 开始 — 这是在本地尝试 AI 最简单的方式
RTX 4090 是最佳选择 — 以 $0.50–2/天 处理 90% 的用例
使用竞价订单 用于试验 — 便宜 30–50%
使用按需订单 用于重要工作 — 有保障,不会被中断
在订单结束前下载你的输出 — 文件会在结束后被删除
使用 CLORE 代币支付 — 通常比稳定币有更好费率
检查内存和网络 — 低内存是失败的头号原因
故障排除
长时间出现 HTTP 502
等待 10–20 分钟以完成首次启动;检查内存是否 ≥ 16GB
服务无法启动
内存过低(需要 16GB+)或显存不足以支持该模型
模型下载缓慢
首次运行时正常;优先选择 500Mbps+ 的服务器
CUDA 内存不足(Out of Memory)
使用更小的模型或更大的 GPU;尝试量化版本
无法 SSH
检查端口是否在 22/tcp 配置中;等待服务器完全启动
🐍 Python SDK 与 CLI(推荐)
更喜欢编码而不是点击?安装官方 SDK:
或直接使用 Python:
→ 完整 Python 快速入门 | SDK 指南 | 异步操作、现货市场、服务器管理、错误处理
需要帮助?
最后更新于
这有帮助吗?