Fine-tuning 2x plus rapide Unsloth
Fine-tunez les LLM 2x plus rapidement avec 70% de VRAM en moins en utilisant Unsloth sur Clore.ai
Principales caractéristiques
Exigences
Composant
Minimum
Recommandé
Démarrage rapide
1. Installer Unsloth
2. Charger un modèle avec quantification 4 bits
3. Appliquer les adaptateurs LoRA
4. Préparer les données et entraîner
Exportation du modèle
Sauvegarder uniquement l'adaptateur LoRA
Fusionner et sauvegarder le modèle complet (float16)
Exporter en GGUF pour Ollama / llama.cpp
Exemples d'utilisation
Fine-tuning sur un jeu de données de chat personnalisé
Entraînement d'alignement DPO / ORPO
Référence d'utilisation de la VRAM
Modèle
Quant
Méthode
VRAM
GPU
Conseils
Dépannage
Problème
Solution
Ressources
Mis à jour
Ce contenu vous a-t-il été utile ?