LLaMA-Factory
Fine-tuner plus de 100 LLMs avec LoRA/QLoRA et une interface web sur les GPU Clore.ai en utilisant LLaMA-Factory
Exigences serveur
Paramètre
Minimum
Recommandé
Déploiement rapide sur CLORE.AI
Variable
Exemple
Description
Configuration étape par étape
1. Louez un serveur GPU sur CLORE.AI
Tâche
VRAM
GPU recommandé
2. SSH sur votre serveur
3. Créer les répertoires de travail
4. Récupérer l'image Docker
5. Lancer LLaMA-Factory
6. Accéder à l'interface Web
Exemples d’utilisation
Exemple 1 : Fine-tuning LoRA via l'interface Web (LLaMA Board)
Exemple 2 : Fine-tuning QLoRA via la CLI
Exemple 3 : Téléverser un jeu de données personnalisé
Exemple 4 : DPO (Direct Preference Optimization)
Exemple 5 : Inférence avec un modèle fine-tuné
Configuration
Paramètres clés d'entraînement
Paramètre
Valeur typique
Description
Méthodes de fine-tuning prises en charge
Méthode
Utilisation de la mémoire
Qualité
Quand l'utiliser
Entraînement Multi-GPU DeepSpeed
Conseils de performance
1. Paramètres QLoRA optimaux par GPU
2. Flash Attention 2 pour des contextes plus longs
3. Gradient Checkpointing
4. Choisir la bonne cible LoRA
5. Geler les couches supérieures pour une adaptation rapide
6. Surveiller avec TensorBoard
Dépannage
Problème : "CUDA out of memory" pendant l'entraînement
Problème : La perte d'entraînement ne diminue pas
Problème : Vitesse d'entraînement lente
Problème : Modèle introuvable dans l'interface Web
Problème : Erreurs de format du jeu de données
Problème : Port WebUI inaccessible
Liens
Recommandations GPU Clore.ai
Cas d’utilisation
GPU recommandé
Coût estimé sur Clore.ai
Mis à jour
Ce contenu vous a-t-il été utile ?