Axolotl Universelles Fine-Tuning
YAML-gesteuertes LLM-Fine-Tuning mit Axolotl auf Clore.ai — LoRA, QLoRA, DPO, Multi-GPU
Hauptmerkmale
Anforderungen
Komponente
Minimum
Empfohlen
Schnellstart
1. Axolotl installieren
2. Eine Konfigurationsdatei erstellen
3. Training starten
Konfigurations-Deep-Dive
Datensatzformate
Multi-GPU mit DeepSpeed
DPO / ORPO Ausrichtung
Vollständiges Fine-Tuning (kein LoRA)
Beispielanwendungen
Inference nach dem Training
LoRA in Basismodell mergen
Datensatz vorverarbeiten (vor dem Training validieren)
VRAM-Nutzungsreferenz
Modell
Methode
GPUs
VRAM/GPU
Konfiguration
Tipps
Fehlerbehebung
Problem
Lösung
Ressourcen
Zuletzt aktualisiert
War das hilfreich?