常见问题

关于在 Clore.ai 上为 AI 工作负载使用的常见问题解答

关于将 CLORE.AI 用于 AI 工作负载的常见问题。

circle-check

入门指南

我如何创建账户?

  1. 点击 注册

  2. 输入电子邮件和密码

  3. 验证您的电子邮件

  4. 完成!您现在可以存入资金并租用 GPU

接受哪些付款方式?

  • CLORE - 原生代币(通常有最佳费率)

  • BTC - 美元

  • USDT - 泰达币(ERC-20、TRC-20)

  • USDC - USD Coin(USDC)

最低存款是多少?

没有严格的最低金额,但我们建议先存入 5-10 美元进行试验。这可以覆盖预算型 GPU 上的数小时使用。

我的存款多久会到账?

货币
确认数
典型时间

CLORE

10

~10 分钟

BTC

2

~20 分钟

USDT/USDC

取决于网络

1-15 分钟


选择硬件

我应该选择哪种 GPU?

取决于您的任务:

任务
推荐 GPU

与 7B 模型聊天

RTX 3060 12GB($0.15–0.30/天)

与 13B-30B 模型聊天

RTX 3090 24GB($0.30–1.00/天)

与 70B 模型聊天

RTX 5090 32GB($1.50–3.00/天)或 A100 40GB($1.50–3.00/天)

图像生成(SDXL)

RTX 3090 24GB($0.30–1.00/天)

图像生成(FLUX)

RTX 4090/5090($0.50–3.00/天)

视频生成

RTX 4090+ 或 A100($0.50–3.00/天)

70B+ 模型(FP16)

A100 80GB($2.00–4.00/天)

参见 GPU 对比 查看详细规格。

按需(On-Demand)和抢占(Spot)有什么区别?

类型
价格
可用性
最适合

按需

固定价格

有保证

用于生产、长期任务

竞价

便宜 30-50%

可能被中断

用于测试、批处理作业

如果有人出价更高,抢占订单可能会被终止。请经常保存您的工作!

我需要多少显存(VRAM)?

使用本快速指南:

模型大小
最低显存(Q4)
推荐

7B

6GB

12GB

13B

8GB

16GB

30B

16GB

24GB

70B

35GB

48GB

参见 模型兼容性 查看完整详情。

服务器上显示“未验证(Unverified)”是什么意思?

未验证服务器尚未完成 CLORE.AI 的硬件验证。它们可能会:

  • 规格与列表略有不同

  • 可靠性较差

已验证的服务器具有确认的规格和更好的可靠性。


连接到服务器

我如何通过 SSH 连接?

在您的订单启动后:

  1. 前往 我的订单

  2. 找到您的订单

  3. 复制 SSH 命令: ssh -p <port> root@<proxy-address>

  4. 使用订单详情中显示的密码

示例:

SSH 连接被拒绝——我该怎么办?

  1. 等待 1-2 分钟 - 服务器可能仍在启动

  2. 检查订单状态 - 必须是“运行中(Running)”

  3. 验证端口 - 使用订单详情中的端口,而不是 22

  4. 检查防火墙 - 您的网络可能会阻止非标准端口

我如何访问 Web 界面(Gradio、Jupyter)?

  1. 在订单详情中,找到 HTTP 端口链接

  2. 点击链接在浏览器中打开

  3. 或手动: http://<proxy-address>:<http-port>

我可以使用 VS Code Remote SSH 吗?

可以!将其添加到您的 ~/.ssh/config:

然后在 VS Code 中连接: Remote-SSH:连接到主机clore-gpu

我如何传输文件?

上传到服务器:

从服务器下载:

对于大文件传输,使用 rsync:


运行 AI 工作负载

我如何安装 Python 包?

对于持久安装,请将其包含在启动命令或 Docker 镜像中。

为什么我的模型会耗尽内存?

  1. 使用量化 - Q4 使用的显存比 FP16 少 4 倍

  2. 启用 CPU 卸载 - 更慢但可行

  3. 减少批量大小 - 使用 batch_size=1

  4. 减少上下文长度 - 减少 max_tokens

  5. 选择更大的 GPU - 有时是必要的

我如何使用需要登录的 Hugging Face 模型?

对于受限模型(Llama 等),请先在 Hugging Face 网站上接受条款。

我可以同时运行多个模型吗?

可以,如果您有足够的显存:

  • 每个模型需要其自己的显存分配

  • 为不同服务使用不同端口

  • 考虑使用 vLLM 以实现高效的多模型服务

订单结束后我如何保留我的工作?

在订单结束之前:

  1. 下载输出: scp -P <port> root@<proxy>:/root/outputs/* ./

  2. 推送到云端: aws s3 sync /root/outputs s3://bucket/

  3. 提交到 Git: git push

订单结束时数据会丢失! 始终备份重要文件。


计费与订单

计费如何计算?

  • 小时费率 × 使用小时数

  • 计费在订单状态为“运行中”时开始

  • 最低计费:1 分钟

  • 按分钟计费部分小时

我如何停止订单?

  1. 前往 我的订单

  2. 点击 停止 您的订单上

  3. 确认终止

您只会被收取已使用的时间费用。

我可以延长我的订单吗?

可以,只要没有人在您的抢占订单上出价更高。向余额添加资金后,订单会自动继续。

如果我的余额用完会怎样?

  1. 发送警告通知

  2. 宽限期(约 5-10 分钟)

  3. 订单被终止

  4. 所有数据丢失!

保持充足余额或在余额不足前下载工作。

我可以获得退款吗?

联系客服处理:

  • 硬件问题(GPU 无法工作)

  • 严重停机

  • 计费错误

以下情况不予退款:

  • 用户错误

  • 正常订单使用

  • 抢占订单中断


Docker 与镜像

有哪些可用的 Docker 镜像?

参见 Docker 镜像目录 用于可直接使用的镜像:

  • ollama/ollama - LLM 运行器

  • vllm/vllm-openai - 高性能 LLM API

  • universonic/stable-diffusion-webui - 图像生成

  • yanwk/comfyui-boot - 基于 Node 的图像生成

我可以使用自己的 Docker 镜像吗?

可以!在下单时指定您的镜像:

确保镜像可公开访问或提供凭证。

如何在重启间持久化数据?

使用提供的卷挂载点或指定自定义卷:


# 使用固定种子以获得一致结果

“CUDA out of memory” 错误

  1. 检查显存(VRAM) - nvidia-smi

  2. 使用更小的模型 或量化(quantization)

  3. 启用 offload(卸载) - --cpu-offload

  4. 减少批量大小 - batch_size=1

  5. 终止其他进程 - pkill python

“连接超时”错误

  1. 检查订单状态 - 必须是“运行中(Running)”

  2. 等待更长时间 - 大型镜像启动需要时间

  3. 检查端口 - 使用订单中的正确端口

  4. 重试 - 网络问题通常是临时的

Web 界面无法加载

  1. 等待启动完成 - 某些界面需要 2-5 分钟

  2. 查看日志: docker logs <container>

  3. 验证端口 - 使用订单详情中的 HTTP 端口

  4. 检查命令 - 必须包含 --listen 0.0.0.0

模型下载卡住

  1. 检查磁盘空间: df -h

  2. 使用更小的模型 - 从 7B 开始

  3. 预先下载 - 包含在 Docker 镜像中

  4. 检查 HF 令牌 - 受限模型所必需

推理速度慢

  1. 检查 GPU 使用情况: nvidia-smi

  2. 启用 GPU - 模型可能在 CPU 上运行

  3. 使用 Flash Attention - --flash-attn

  4. 优化设置 - 降低精度、批量大小


安全性

我的数据安全吗?

  • 每个订单在隔离的容器中运行

  • 订单结束时数据会被删除

  • 网络流量通过 CLORE 代理转发

  • 不要在租用的 GPU 上存储敏感数据

我应该更改 root 密码吗?

可选但建议用于长期订单:

我如何保护 API 密钥?

  1. 使用环境变量 - 不要作为命令行参数

  2. 不要提交到 Git - 使用 .gitignore

  3. 使用后删除 - 清除历史记录: history -c


仍然需要帮助?

最后更新于

这有帮助吗?