Kohya Training

Trainieren Sie LoRA und DreamBooth für Stable Diffusion mit Kohya auf Clore.ai

Trainiere LoRA, Dreambooth und vollständige Feinanpassungen für Stable Diffusion mit Kohyas Trainer.

circle-check

Mieten auf CLORE.AI

  1. Nach GPU-Typ, VRAM und Preis filtern

  2. Wählen On-Demand (Festpreis) oder Spot (Gebotspreis)

  3. Konfigurieren Sie Ihre Bestellung:

    • Docker-Image auswählen

    • Ports festlegen (TCP für SSH, HTTP für Web-UIs)

    • Umgebungsvariablen bei Bedarf hinzufügen

    • Startbefehl eingeben

  4. Zahlung auswählen: CLORE, BTC, oder USDT/USDC

  5. Bestellung erstellen und auf Bereitstellung warten

Zugriff auf Ihren Server

  • Verbindungsdetails finden Sie in Meine Bestellungen

  • Webschnittstellen: Verwenden Sie die HTTP-Port-URL

  • SSH: ssh -p <port> root@<proxy-address>

Was ist Kohya?

Kohya_ss ist ein Trainingstoolkit für:

  • LoRA - Leichte Adapter (am beliebtesten)

  • Dreambooth - Subjekt-/Stil-Training

  • Vollständige Feinanpassung - Komplettes Modelltraining

  • LyCORIS - Erweiterte LoRA-Varianten

Anforderungen

Trainingstyp
Min. VRAM
Empfohlen

LoRA SD 1.5

6GB

RTX 3060

LoRA SDXL

12GB

RTX 3090

Dreambooth SD 1.5

12GB

RTX 3090

Dreambooth SDXL

24GB

RTX 4090

Schnelle Bereitstellung

Docker-Image:

Ports:

Befehl:

Zugriff auf Ihren Dienst

Nach der Bereitstellung finden Sie Ihre http_pub URL in Meine Bestellungen:

  1. Gehen Sie zur Meine Bestellungen Seite

  2. Klicken Sie auf Ihre Bestellung

  3. Finden Sie die http_pub URL (z. B., abc123.clorecloud.net)

Verwenden Sie https://IHRE_HTTP_PUB_URL anstelle von localhost in den Beispielen unten.

Verwendung der Web-Oberfläche

  1. Zugriff unter http://<proxy>:<port>

  2. Wähle Trainingstyp (LoRA, Dreambooth, usw.)

  3. Einstellungen konfigurieren

  4. Training starten

Datensatzvorbereitung

Ordnerstruktur

Bildanforderungen

  • Auflösung: 512x512 (SD 1.5) oder 1024x1024 (SDXL)

  • Format: PNG oder JPG

  • Anzahl: 10–50 Bilder für LoRA

  • Qualität: Klar, gut beleuchtet, verschiedene Blickwinkel

Beschriftungsdateien

Erstelle .txt Datei mit gleichem Namen wie das Bild:

myimage.txt:

Automatische Beschriftung

Verwende BLIP für automatische Beschriftungen:

LoRA-Training (SD 1.5)

Konfiguration

In der Kohya-Oberfläche:

Einstellung
Wert

Modell

runwayml/stable-diffusion-v1-5

Netzwerk-Rang

32-128

Netzwerk-Alpha

16-64

Lernrate

1e-4

Batch-Größe

1-4

Epochen

10-20

Optimierer

AdamW8bit

Training über die Kommandozeile

LoRA-Training (SDXL)

Dreambooth-Training

Subjekt-Training

Stil-Training

Trainingstipps

Optimale Einstellungen

Parameter
Person/Charakter
Stil
Objekt

Netzwerk-Rang

64-128

32-64

32

Netzwerk-Alpha

32-64

16-32

16

Lernrate

1e-4

5e-5

1e-4

Epochen

15-25

10-15

10-15

Vermeidung von Überanpassung

  • Verwende Regularisierungsbilder

  • Niedrigere Lernrate

  • Weniger Epochen

  • Erhöhe Netzwerk-Alpha

Vermeidung von Unteranpassung

  • Mehr Trainingsbilder

  • Höhere Lernrate

  • Mehr Epochen

  • Niedrigeres Netzwerk-Alpha

Überwachung des Trainings

TensorBoard

Wichtige Metriken

  • loss - Sollte abnehmen und dann stabilisieren

  • lr - Lernratenplan

  • epoch - Trainingsfortschritt

Testen deiner LoRA

Mit Automatic1111

Kopiere LoRA nach:

Verwendung im Prompt:

Mit ComfyUI

Lade LoRA-Knoten und verbinde mit dem Modell.

Mit Diffusers

Fortgeschrittenes Training

LyCORIS (LoHa, LoKR)

Textual Inversion

Speichern & Exportieren

Trainiertes Modell herunterladen

Formate konvertieren

Kostenabschätzung

Typische CLORE.AI-Marktplatztarife (Stand 2024):

GPU
Stundensatz
Tagessatz
4-Stunden-Sitzung

RTX 3060

~$0.03

~$0.70

~$0.12

RTX 3090

~$0.06

~$1.50

~$0.25

RTX 4090

~$0.10

~$2.30

~$0.40

A100 40GB

~$0.17

~$4.00

~$0.70

A100 80GB

~$0.25

~$6.00

~$1.00

Preise variieren je nach Anbieter und Nachfrage. Prüfen Sie CLORE.AI Marketplacearrow-up-right auf aktuelle Preise.

Geld sparen:

  • Verwenden Sie Spot Markt für flexible Workloads (oft 30–50% günstiger)

  • Bezahlen mit CLORE Token

  • Preise bei verschiedenen Anbietern vergleichen

FLUX LoRA-Training

Trainiere LoRA-Adapter für FLUX.1-dev und FLUX.1-schnell — die neueste Generation von Diffusions-Transformer-Modellen mit überlegener Qualität.

VRAM-Anforderungen

Modell
Min. VRAM
Empfohlene GPU

FLUX.1-schnell

16GB

RTX 4080 / 3090

FLUX.1-dev

24GB

RTX 4090

FLUX.1-dev (bf16)

40GB+

A100 40GB

Hinweis: FLUX verwendet die DiT (Diffusion Transformer) Architektur — Trainingsdynamiken unterscheiden sich erheblich von SD 1.5 / SDXL.

Installation für FLUX

Installiere PyTorch mit CUDA 12.4-Unterstützung:

FLUX LoRA-Konfiguration (flux_lora.toml)

FLUX LoRA-Training Befehl

FLUX vs SDXL: Wichtige Unterschiede

Parameter
SDXL
FLUX.1

Lernrate

1e-3 bis 1e-4

1e-4 bis 5e-5

Präzision

fp16 oder bf16

bf16 ERFORDERLICH

Netzwerkmodul

networks.lora

networks.lora_flux

Netzwerk-Dim

32–128

8–64 (kleiner)

Optimierer

AdamW8bit

Adafactor

Min. VRAM

12GB

16–24GB

Architektur

U-Net

DiT (Transformer)

Lernratenleitfaden für FLUX

Tipp: FLUX ist empfindlicher gegenüber der Lernrate als SDXL. Beginne bei 1e-4 und reduziere auf 5e-5 wenn du Qualitätsprobleme siehst. Für SDXL, 1e-3 ist üblich — vermeide dies für FLUX.

Testen von FLUX LoRA


Fehlerbehebung

OOM-Fehler

  • Reduziere Batch-Größe auf 1

  • Aktivieren Sie Gradient Checkpointing

  • Verwende 8bit-Optimierer

  • Niedrigere Auflösung

Schlechte Ergebnisse

  • Mehr/bessere Trainingsbilder

  • Lernrate anpassen

  • Überprüfe, ob Beschriftungen zu Bildern passen

  • Probiere einen anderen Netzwerk-Rang

Training stürzt ab

  • Überprüfe CUDA-Version

  • Aktualisiere xformers

  • Batch-Größe reduzieren

  • Überprüfe Festplattenspeicher

FLUX-spezifische Probleme

  • "bf16 nicht unterstützt" — Verwende A-Serie (Ampere+) oder RTX 30/40 Serien GPUs

  • OOM bei FLUX.1-dev — Wechsle zu FLUX.1-schnell (benötigt 16GB) oder aktiviere cache_text_encoder_outputs

  • Verschwommene Ergebnisse — Erhöhe network_dim auf 32–64, senke die Lernrate auf 5e-5

  • NaN loss — Deaktiviere full_bf16, überprüfe deinen Datensatz auf beschädigte Bilder

Zuletzt aktualisiert

War das hilfreich?