Unsloth 提升 2 倍微调速度
在 Clore.ai 使用 Unsloth,以 70% 更少的显存实现 LLM 微调速度提升 2 倍
主要特性
要求
组件
最低
推荐
快速开始
1. 安装 Unsloth
2. 以 4-bit 量化加载模型
3. 应用 LoRA 适配器
4. 准备数据并训练
导出模型
仅保存 LoRA 适配器
合并并保存完整模型(float16)
导出为 GGUF 以供 Ollama / llama.cpp 使用
使用示例
在自定义聊天数据集上微调
DPO / ORPO 对齐训练
显存使用参考
A100
量化
方法
显存
GPU
提示
# 使用固定种子以获得一致结果
问题
解决方案
资源
最后更新于
这有帮助吗?