LLaMA-Factory
在 Clore.ai GPU 上使用 LLaMA-Factory 对 100+ 大型语言模型进行 LoRA/QLoRA 微调并提供网页界面
服务器要求
参数
最低要求
推荐配置
在 CLORE.AI 上快速部署
变量
示例
描述
逐步设置
1. 在 CLORE.AI 上租用 GPU 服务器
任务
显存(VRAM)
开发/测试
2. SSH 登录到您的服务器
3. 创建工作目录
4. 拉取 Docker 镜像
5. 启动 LLaMA-Factory
6. 访问网页界面
使用示例
示例 1:通过网页 UI(LLaMA Board)进行 LoRA 微调
示例 2:基于 CLI 的 QLoRA 微调
示例 3:上传自定义数据集
示例 4:DPO(直接偏好优化)
示例 5:使用微调模型进行推理
invokeai.yaml 配置文件
关键训练参数
参数
典型值
描述
支持的微调方法
方法
内存使用
速度
何时使用
多 GPU DeepSpeed 训练
1. 使用 SDXL-Turbo 或 SDXL-Lightning 以实现快速生成
1. 按 GPU 优化的 QLoRA 设置
2. 使用 Flash Attention 2 支持更长上下文
3. 梯度检查点(Gradient Checkpointing)
4. 选择合适的 LoRA 目标
5. 冻结顶层以实现快速适配
6. 使用 TensorBoard 监控
故障排除
问题:“训练过程中 CUDA 内存不足(out of memory)”
问题:训练损失没有下降
问题:训练速度慢
问题:在 Web UI 中找不到模型
问题:数据集格式错误
问题:WebUI 端口无法访问
文档
Clore.ai 的 GPU 建议
在 Clore.ai 上的预估费用
开发/测试
RTX 3090(24GB)
最后更新于
这有帮助吗?