快速入门
无需事先具备 GPU 或 AI 经验。本指南带你从零在 5 分钟内运行 AI。
第 1 步:创建账户并充值
前往 clore.ai → 注册
验证您的电子邮件
前往 账户 → 存款
通过以下方式添加资金 CLORE, BTC, USDT,或 USDC (开始最低约 $5)
第 2 步:选择 GPU
前往 市场 并根据你的任务进行选择:
与 AI 聊天(7B 模型)
RTX 3060 12GB
~$0.15
与 AI 聊天(32B 模型)
RTX 4090 24GB
~$0.50
生成图像(FLUX)
RTX 3090 24GB
~$0.30
生成视频
RTX 4090 24GB
~$0.50
生成音乐
任何 4GB+ 的 GPU
~$0.15
语音克隆 / 文本转语音(TTS)
RTX 3060 6GB+
~$0.15
转录音频
RTX 3060 8GB+
~$0.15
微调模型
RTX 4090 24GB
~$0.50
运行 70B+ 模型
4 小时会话
~$2.00
重要 — 不要只看 GPU!
内存: 大多数 AI 工作负载最低需 16GB+
网络: 建议 500Mbps+(模型从 HuggingFace 下载)
磁盘: 50GB+ 可用空间用于模型存储
快速 GPU 指南
按小时费率
12GB
$0.15–0.30/天
TTS、音乐、小模型
速度
24GB
$0.30–1.00/天
图像生成、32B 模型
512x512
24GB
$0.50–2.00/天
涵盖到 35B 的一切,推理速度快
RTX 5090
32GB
$1.50–3.00/天
70B 量化,最快
4 小时会话
80GB
$2.00–4.00/天
70B FP16,专业训练
H100 80GB
80GB
$3.00–6.00/天
400B+ MoE 模型
第 3 步:部署
点击 租用 在你选择的服务器上,然后配置:
订购类型: 按需(有保障)或抢占(便宜 30–50%,可能被中断)
Docker 镜像: 见下方指令模板
端口: 始终包含
22/tcp(SSH)+ 你的应用端口环境: 添加任何所需的 API 密钥
🚀 一键指令模板
与 AI 聊天(Ollama + Open WebUI)
运行本地 AI 的最简单方式—带有类似 ChatGPT 的界面,支持任意开源模型。
部署后,打开 HTTP URL → 创建账户 → 选择模型(Llama 4 Scout、Gemma 3、Qwen3.5)→ 开始聊天!
图像生成(ComfyUI)
基于节点的工作流,用于 FLUX、Stable Diffusion 等。
图像生成(Stable Diffusion WebUI)
Stable Diffusion、SDXL 和 SD 3.5 的经典界面。
LLM API 服务器(vLLM)
支持 OpenAI 兼容 API 的生产级服务。
音乐生成(ACE-Step)
生成带人声的完整歌曲 — 任何 4GB+ GPU 都可运行!
SSH 登录,然后:
第 4 步:连接
在您的订单启动后:
前往 我的订单 → 找到你正在运行的订单
Web 界面: 点击 HTTP URL(例如,
https://xxx.clorecloud.net)SSH:
ssh -p <port> root@<proxy-address>
首次启动需 5–20 分钟 — 服务器从 HuggingFace 下载 AI 模型。此期间出现 HTTP 502 错误是正常的。请等待并刷新。
Ollama + Open WebUI
3–5 分钟
ComfyUI
10–15 分钟
vLLM
5–15 分钟(取决于模型大小)
SD WebUI
10–20 分钟
第 5 步:开始创作
服务运行后,查看针对你具体用例的指南:
🤖 语言模型(聊天、代码、推理)
Ollama — 最简单的模型管理
Llama 4 Scout — Meta 的最新模型,10M 上下文
Gemma 3 — 谷歌的 27B,超越 405B 模型
Qwen3.5 — 在数学上超过 Claude 4.5(2026 年 2 月!)
DeepSeek-R1 — 链式思维(chain-of-thought)推理
vLLM — 生产级 API 服务
🎨 图像生成
FLUX.2 Klein — 每张图像 < 0.5 秒!
ComfyUI — 基于节点的工作流
FLUX.1 — 使用 LoRA + ControlNet 达到最高质量
Stable Diffusion 3.5 — 最佳文字渲染
🎬 视频生成
FramePack — 仅需 6GB 显存!
Wan2.1 — 高质量的 T2V(文本到视频)+ I2V(图像到视频)
LTX-2 — 带音频的视频
CogVideoX — 知乎 AI(智谱 AI)的视视频模型
🔊 音频与语音
🎵 音乐
ACE-Step — 在 < 4GB 显存上生成完整歌曲
💻 AI 编码
🧠 训练
💡 初学者提示
从 Ollama 开始 — 这是在本地尝试 AI 最简单的方式
RTX 4090 是最佳选择 — 在 $0.50–2/天 的价格区间可应对 90% 的使用场景
使用抢占订单(Spot) 进行实验 — 便宜 30–50%
使用按需订单(On-Demand) 用于重要工作 — 有保障,不会被中断
在订单结束前下载你的输出 —— 订单结束后文件将被删除
使用 CLORE 代币支付 — 往往比稳定币费率更优
检查内存和网络 — 内存不足是失败的首要原因
# 使用固定种子以获得一致结果
长时间出现 HTTP 502
首次启动需等待 10–20 分钟;检查内存是否 ≥ 16GB
服务无法启动
内存过低(需 16GB+)或显存不足以运行该模型
模型下载缓慢
首次运行时正常;建议选择 500Mbps+ 的服务器
CUDA 内存不足(out of memory)
使用更小的模型或更大的 GPU;尝试量化版本
无法 SSH
检查端口是否在 22/tcp 配置中;等待服务器完全启动
需要帮助?
最后更新于
这有帮助吗?