Axolotl Universelles Fine‑Tuning
YAML‑gesteuertes LLM‑Fine‑Tuning mit Axolotl auf Clore.ai — LoRA, QLoRA, DPO, Multi‑GPU
Hauptmerkmale
Anforderungen
Komponente
Minimum
Empfohlen
Schnellstart
1. Axolotl installieren
2. Eine Konfigurationsdatei erstellen
3. Training starten
Konfigurations-Deep-Dive
Datensatzformate
Multi-GPU mit DeepSpeed
DPO / ORPO Ausrichtung
Vollständiges Fine-Tuning (kein LoRA)
Beispielanwendungen
Inference nach dem Training
LoRA in Basismodell mergen
Datensatz vorverarbeiten (vor dem Training validieren)
VRAM-Nutzungsreferenz
Modell
Methode
GPUs
VRAM/GPU
Konfiguration
Tipps
Fehlerbehebung
Problem
Lösung
Ressourcen
Zuletzt aktualisiert
War das hilfreich?