Entraînement Kohya

Entraînez LoRA et DreamBooth pour Stable Diffusion avec Kohya sur Clore.ai

Entraînez LoRA, Dreambooth et des fine-tunes complets pour Stable Diffusion en utilisant le trainer de Kohya.

circle-check

Location sur CLORE.AI

  1. Filtrer par type de GPU, VRAM et prix

  2. Choisir À la demande (tarif fixe) ou Spot (prix d'enchère)

  3. Configurez votre commande :

    • Sélectionnez l'image Docker

    • Définissez les ports (TCP pour SSH, HTTP pour les interfaces web)

    • Ajoutez des variables d'environnement si nécessaire

    • Entrez la commande de démarrage

  4. Sélectionnez le paiement : CLORE, BTC, ou USDT/USDC

  5. Créez la commande et attendez le déploiement

Accédez à votre serveur

  • Trouvez les détails de connexion dans Mes commandes

  • Interfaces Web : utilisez l'URL du port HTTP

  • SSH : ssh -p <port> root@<adresse-proxy>

Qu'est-ce que Kohya ?

Kohya_ss est une boîte à outils d'entraînement pour :

  • LoRA - Adaptateurs légers (les plus populaires)

  • Dreambooth - Entraînement de sujet/style

  • Fine-tune complet - Entraînement complet du modèle

  • LyCORIS - Variantes avancées de LoRA

Exigences

Type d'entraînement
VRAM min
Recommandé

LoRA SD 1.5

6 Go

RTX 3060

LoRA SDXL

12Go

RTX 3090

Dreambooth SD 1.5

12Go

RTX 3090

Dreambooth SDXL

24 Go

RTX 4090

Déploiement rapide

Image Docker :

Ports :

Commande :

Accéder à votre service

Après le déploiement, trouvez votre http_pub URL dans Mes commandes:

  1. Aller à la Mes commandes page

  2. Cliquez sur votre commande

  3. Trouvez l' http_pub URL (par ex., abc123.clorecloud.net)

Utilisez https://VOTRE_HTTP_PUB_URL au lieu de localhost dans les exemples ci-dessous.

Utilisation de l'interface Web

  1. Accéder à http://<proxy>:<port>

  2. Sélectionnez le type d'entraînement (LoRA, Dreambooth, etc.)

  3. Configurer les paramètres

  4. Démarrer l'entraînement

Préparation du jeu de données

Structure des dossiers

Exigences pour les images

  • Résolution : 512x512 (SD 1.5) ou 1024x1024 (SDXL)

  • Format : PNG ou JPG

  • Quantité : 10-50 images pour LoRA

  • Qualité : Claires, bien éclairées, angles variés

Fichiers de légendes

Créer .txt fichier avec le même nom que l'image :

myimage.txt :

Auto-légendage

Utiliser BLIP pour des légendes automatiques :

Entraînement LoRA (SD 1.5)

Configuration

Dans l'interface Kohya :

Paramètre
Valeur

Modèle

runwayml/stable-diffusion-v1-5

Rang du réseau

32-128

Alpha du réseau

16-64

Taux d'apprentissage

1e-4

Taille de lot

1-4

Époques

10-20

Optimiseur

AdamW8bit

Entraînement en ligne de commande

Entraînement LoRA (SDXL)

Entraînement Dreambooth

Entraînement de sujet

Entraînement de style

Conseils d'entraînement

Paramètres optimaux

Paramètre
Personne/Personnage
Style
Objet

Rang du réseau

64-128

32-64

32

Alpha du réseau

32-64

16-32

16

Taux d'apprentissage

1e-4

5e-5

1e-4

Époques

15-25

10-15

10-15

Éviter le surapprentissage

  • Utiliser des images de régularisation

  • Baisser le taux d'apprentissage

  • Moins d'époques

  • Augmenter l'alpha du réseau

Éviter le sous-apprentissage

  • Plus d'images d'entraînement

  • Taux d'apprentissage plus élevé

  • Plus d'époques

  • Baisser l'alpha du réseau

Surveillance de l'entraînement

TensorBoard

Métriques clés

  • perte - Devrait diminuer puis se stabiliser

  • lr - Plan de taux d'apprentissage

  • époque - Progression de l'entraînement

Tester votre LoRA

Avec Automatic1111

Copier le LoRA vers :

Utiliser dans le prompt :

Avec ComfyUI

Charger le nœud LoRA et le connecter au modèle.

Avec Diffusers

Entraînement avancé

LyCORIS (LoHa, LoKR)

Inversion textuelle

Sauvegarde et exportation

Télécharger le modèle entraîné

Convertir les formats

Estimation des coûts

Tarifs typiques du marché CLORE.AI (à partir de 2024) :

GPU
Tarif horaire
Tarif journalier
Session de 4 heures

RTX 3060

~$0.03

~$0.70

~$0.12

RTX 3090

~$0.06

~$1.50

~$0.25

RTX 4090

~$0.10

~$2.30

~$0.40

A100 40GB

~$0.17

~$4.00

~$0.70

A100 80GB

~$0.25

~$6.00

~$1.00

Les prix varient selon le fournisseur et la demande. Vérifiez CLORE.AI Marketplacearrow-up-right pour les tarifs actuels.

Économisez de l'argent :

  • Utilisez Spot market pour les charges de travail flexibles (souvent 30-50 % moins cher)

  • Payer avec CLORE jetons

  • Comparer les prix entre différents fournisseurs

Entraînement FLUX LoRA

Entraînez des adaptateurs LoRA pour FLUX.1-dev et FLUX.1-schnell — la dernière génération de modèles de diffusion transformer avec une qualité supérieure.

Exigences VRAM

Modèle
VRAM min
GPU recommandé

FLUX.1-schnell

16Go

RTX 4080 / 3090

FLUX.1-dev

24 Go

RTX 4090

FLUX.1-dev (bf16)

40 Go+

A100 40GB

Remarque : FLUX utilise l'architecture DiT (Diffusion Transformer) — la dynamique d'entraînement diffère significativement de SD 1.5 / SDXL.

Installation pour FLUX

Installer PyTorch avec le support CUDA 12.4 :

Configuration FLUX LoRA (flux_lora.toml)

Commande d'entraînement FLUX LoRA

FLUX vs SDXL : différences clés

Paramètre
SDXL
FLUX.1

Taux d'apprentissage

1e-3 à 1e-4

1e-4 à 5e-5

Précision

fp16 ou bf16

bf16 REQUIS

Module de réseau

networks.lora

networks.lora_flux

Dimension du réseau

32–128

8–64 (plus petit)

Optimiseur

AdamW8bit

Adafactor

VRAM min

12Go

16–24Go

Architecture

U-Net

DiT (Transformer)

Guide du taux d'apprentissage pour FLUX

Conseil : FLUX est plus sensible au taux d'apprentissage que SDXL. Commencez à 1e-4 et réduisez à 5e-5 si vous constatez des problèmes de qualité. Pour SDXL, 1e-3 est courant — évitez cela pour FLUX.

Tester FLUX LoRA


Dépannage

Erreur OOM

  • Réduire la taille de batch à 1

  • Activer le gradient checkpointing

  • Utiliser l'optimiseur 8bit

  • Baisser la résolution

Résultats médiocres

  • Plus/d'améliorer les images d'entraînement

  • Ajuster le taux d'apprentissage

  • Vérifier que les légendes correspondent aux images

  • Essayer un rang de réseau différent

Plantages d'entraînement

  • Vérifier la version de CUDA

  • Mettre à jour xformers

  • Réduire la taille de batch

  • Vérifier l'espace disque

Problèmes spécifiques à FLUX

  • "bf16 non supporté" — Utiliser des GPU A-series (Ampere+) ou séries RTX 30/40

  • OOM sur FLUX.1-dev — Passer à FLUX.1-schnell (nécessite 16 Go) ou activer cache_text_encoder_outputs

  • Résultats flous — Augmenter network_dim à 32–64, baisser le taux d'apprentissage à 5e-5

  • Perte NaN — Désactiver full_bf16, vérifier votre jeu de données pour des images corrompues

Mis à jour

Ce contenu vous a-t-il été utile ?