可用的 Docker 镜像

在 Clore.ai 租用 GPU 服务器时,您可以选择预配置的 Docker 镜像或使用您自己的镜像。

预安装镜像

通用用途

镜像
说明
包含

Ubuntu Jupyter

带有 Jupyter Notebook 的精简 Ubuntu

Python、CUDA、Jupyter

PyTorch

为深度学习准备就绪

PyTorch、CUDA、cuDNN

TensorFlow

谷歌的机器学习框架

TensorFlow、CUDA、Keras

AI/ML 专用

镜像
说明
使用案例

Stable Diffusion WebUI

AUTOMATIC1111 WebUI

图像生成

ComfyUI

基于节点的 SD 界面

高级图像工作流

文本生成 WebUI

Oobabooga 的界面

大型语言模型推理

Ollama

本地运行大型语言模型

大型语言模型部署

vLLM

高性能大型语言模型服务

生产级大型语言模型

挖矿

镜像
说明

Clore 挖矿

为挖矿预配置

兼容 HiveOS

用于 HiveOS 集成

选择镜像

  1. 转到 市场

  2. 查找服务器

  3. 点击 租用

  4. 在订单表单中,选择 Docker 镜像 从下拉列表

  5. 如有需要,配置端口

  6. 提交订单

使用自定义 Docker 镜像

您可以指定来自 Docker Hub 或其他注册表的任何公共 Docker 镜像。

格式

示例

自定义镜像的要求

  • 必须可公开访问(或使用认证)

  • 应与 NVIDIA GPU 兼容

  • 基于启用 CUDA 的镜像以访问 GPU

端口配置

创建订单时,您可以为应用程序暴露端口:

端口
常见用途

22

SSH(通常预配置)

8888

Jupyter Notebook

7860

Gradio 应用(SD WebUI 等)

3000

Web 应用

8080

HTTP 服务

设置自定义端口

在订单表单中,指定要暴露的端口:

环境变量

您可以将环境变量传递到容器:

持久存储

  • 数据位于 /workspace 通常在租用期间是持久的

  • 其他目录在容器重启时可能会被重置

  • 始终在外部备份重要数据

最佳实践

  1. 选择合适的镜像 - 尽可能使用预配置镜像

  2. 检查 CUDA 版本 - 确保与您的工作负载兼容

  3. 仅暴露必要的端口 - 为了安全

  4. 使用环境变量 - 用于配置,而非密钥/机密

  5. 先在本地测试 - 在租用前验证您的自定义镜像能正常工作

故障排除

镜像无法启动

  • 检查镜像是否存在且为公开

  • 验证 CUDA/GPU 兼容性

  • 通过 SSH 检查容器日志

容器中无法访问 GPU

  • 确保镜像兼容 NVIDIA

  • 检查 NVIDIA 驱动: nvidia-smi

  • 验证 CUDA 安装: nvcc --version

无法访问已暴露的端口

  • 等待容器完全启动

  • 检查服务是否在容器内运行

  • 验证防火墙/安全设置

最后更新于

这有帮助吗?