Jan.ai 离线助手
在 Clore.ai 上部署 Jan.ai 服务器 —— 完全离线、兼容 OpenAI 的 LLM 服务器,带有模型中心、对话管理和由 Cortex 引擎驱动的 GPU 加速推理。
概览
要求
硬件要求
方案
GPU
显存
内存
存储
Clore.ai 价格
模型显存参考
A100
所需显存
推荐 GPU
软件先决条件
快速开始
第 1 步 — 在 Clore.ai 上租用 GPU 服务器
步骤 2 — 连接到你的服务器
步骤 3 — 安装 Docker Compose(如果未安装)
步骤 4 — 使用 Docker Compose 部署 Jan 服务器
步骤 5 — 验证服务器是否正在运行
步骤 6 — 拉取你的第一个模型
步骤 7 — 启动模型并聊天
配置
使用环境变量进行 SSH 和 Jupyter 访问:
变量
默认值
4s
多 GPU 配置
自定义模型配置
使用令牌保护 API
GPU 加速
验证 CUDA 加速
切换推理后端
上下文窗口和批量大小调优
参数
4s
建议
提示与最佳实践
🎯 针对 Clore.ai 预算的模型选择
💾 持久化模型存储
🔗 将 Jan 服务器用作 OpenAI 的直接替代
📊 监控资源使用情况
# 使用固定种子以获得一致结果
容器无法启动 — 找不到 GPU
模型下载卡住或失败
显存不足(CUDA 内存不足)
无法从容器外部连接到 API
推理缓慢(回退到 CPU)
延伸阅读
最后更新于
这有帮助吗?