Fine-tuning universel Axolotl
Fine-tuning de LLM piloté par YAML avec Axolotl sur Clore.ai — LoRA, QLoRA, DPO, multi-GPU
Principales caractéristiques
Exigences
Composant
Minimum
Recommandé
Démarrage rapide
1. Installer Axolotl
2. Créez un fichier de configuration
3. Lancer l'entraînement
Approfondissement de la configuration
Formats de jeux de données
Multi-GPU avec DeepSpeed
Alignement DPO / ORPO
Entraînement complet (sans LoRA)
Exemples d'utilisation
Inférence après entraînement
Fusionner LoRA dans le modèle de base
Prétraiter le jeu de données (valider avant l'entraînement)
Référence d'utilisation de la VRAM
Modèle
Méthode
GPUs
VRAM/GPU
Configuration
Conseils
Dépannage
Problème
Solution
Ressources
Mis à jour
Ce contenu vous a-t-il été utile ?