LTX-Video Echtzeit-Generierung
Generieren Sie 5-Sekunden-Videos schneller als Echtzeit mit Lightricks' LTX-Video auf Clore.ai GPUs.
LTX-Video von Lightricks ist das schnellste Open-Source-Videoerzeugungsmodell. Auf einer RTX 4090 erzeugt es einen 5‑Sekunden-Clip in 768×512 in etwa 4 Sekunden — schneller als Echtzeitwiedergabe. Das Modell unterstützt sowohl Text-zu-Video- (T2V) als auch Bild-zu-Video- (I2V) Workflows durch native diffusers Integration über LTXPipeline und LTXImageToVideoPipeline.
Eine GPU mieten auf Clore.ai gibt Ihnen sofortigen Zugriff auf die Hardware, die LTX-Video benötigt, ohne Vorabinvestition und mit Abrechnung pro Stunde.
Hauptmerkmale
Schneller als Echtzeit — 5‑Sekunden-Video in ~4 Sekunden auf einer RTX 4090 erzeugt.
Text-zu-Video — erzeugt Clips aus natürlichsprachlichen Beschreibungen.
Bild-zu-Video — animiert ein statisches Referenzbild mit Bewegung und Kamerasteuerung.
Leichte Architektur — 2‑Milliarden-Parameter Video DiT mit einem kompakten latenten Raum.
Native diffusers —
LTXPipelineundLTXImageToVideoPipelineindiffusers >= 0.32.Offene Gewichte — Apache‑2.0 Lizenz; vollständige kommerzielle Nutzung erlaubt.
Temporales VAE — 1:192 Kompressionsverhältnis über Raum und Zeit; effizientes Decoding.
Anforderungen
GPU-VRAM
16 GB
24 GB
System-RAM
16 GB
32 GB
Festplatte
15 GB
30 GB
Python
3.10+
3.11
CUDA
12.1+
12.4
diffusers
0.32+
neueste
Clore.ai GPU-Empfehlung: Ein RTX 4090 (24 GB, ~0,5–2 $/Tag) ist ideal für maximalen Durchsatz. Ein RTX 3090 (24 GB, ~0,3–1 $/Tag) läuft immer noch schneller als viele konkurrierende Modelle zu einem Bruchteil der Kosten.
Schnellstart
Beispielanwendungen
Text-zu-Video
Bild-zu-Video
Batch-Generierungsskript
Tipps für Clore.ai-Nutzer
Geschwindigkeits-Benchmark — auf einer RTX 4090 erzeugt LTX-Video 121 Frames in ~4 Sekunden; verwenden Sie dies als Plausibilitätsprüfung, dass Ihre Anmietung korrekt arbeitet.
bf16 Präzision — der Checkpoint wurde in bf16 trainiert; wechseln Sie nicht zu fp16, sonst riskieren Sie Qualitätsverschlechterung.
Gewichte cachen — setze
HF_HOME=/workspace/hf_cacheauf einem persistenten Volume. Das Modell ist ~6 GB; erneutes Herunterladen bei jedem Containerstart verschwendet Zeit.Prompt-Engineering — LTX-Video reagiert gut auf kinoreife Sprache: "Drohnenaufnahme", "Zeitlupe", "goldene Stunde", "Tracking-Shot". Seien Sie spezifisch bezüglich Kamerabewegung.
Batch über Nacht — LTX-Video ist schnell genug, um auf einer 4090 Hunderte von Clips pro Stunde zu erzeugen. Reichen Sie Prompts aus einer Datei ein und lassen Sie es laufen.
SSH + tmux — führen Sie die Generierung immer innerhalb einer
tmuxSitzung aus, damit unterbrochene Verbindungen lange Batch-Jobs nicht beenden.VRAM überwachen —
watch -n1 nvidia-smiin einem zweiten Terminal, um sicherzustellen, dass Sie nicht auf Swap stoßen.
Fehlerbehebung
OutOfMemoryError
Reduziere num_frames auf 81 oder Breite/Höhe auf 512×320
Modell in diffusers nicht gefunden
Aktualisieren: pip install -U diffusers — LTXPipeline erfordert diffusers ≥ 0.32
Schwarzes oder statisches Ergebnis
Stellen Sie sicher, dass Sie ein negative_prompt; erhöhen Sie guidance_scale auf 8–9
ImportError: imageio
pip install imageio[ffmpeg] — ffmpeg-Backend benötigt für MP4-Export
Langsame erste Inferenz
Der erste Lauf kompiliert CUDA-Kerne und lädt Gewichte herunter; nachfolgende Läufe sind schnell
Farbbanding-Artefakte
Verwenden Sie torch.bfloat16 (nicht float16); bfloat16 hat einen größeren Dynamikbereich
Container wurde mitten im Job neu gestartet
Setze HF_HOME auf persistente Speicherung; partielle HF-Downloads setzen automatisch fort
Zuletzt aktualisiert
War das hilfreich?