Fine-tuning Unsloth 2x plus rapide
Fine-tunez les LLMs 2x plus vite avec 70 % de VRAM en moins en utilisant Unsloth sur Clore.ai
Principales caractéristiques
Exigences
Composant
Minimum
Recommandé
Démarrage rapide
1. Installer Unsloth
2. Charger un modèle avec quantification 4 bits
3. Appliquer les adaptateurs LoRA
4. Préparer les données et entraîner
Exportation du modèle
Sauvegarder uniquement l'adaptateur LoRA
Fusionner et sauvegarder le modèle complet (float16)
Exporter en GGUF pour Ollama / llama.cpp
Exemples d'utilisation
Fine-tuning sur un jeu de données de chat personnalisé
Entraînement d'alignement DPO / ORPO
Référence d'utilisation de la VRAM
Modèle
Quant
Méthode
VRAM
GPU
Conseils
Dépannage
Problème
Solution
Ressources
Mis à jour
Ce contenu vous a-t-il été utile ?