Génération en temps réel LTX-Video
Générez des vidéos de 5 secondes plus vite que le temps réel avec LTX-Video de Lightricks sur les GPU Clore.ai.
LTX-Video de Lightricks est le modèle de génération vidéo open-source le plus rapide disponible. Sur une RTX 4090, il produit un clip de 5 secondes en 768×512 en environ 4 secondes — plus rapide que la lecture en temps réel. Le modèle prend en charge les flux de travail texte-vers-vidéo (T2V) et image-vers-vidéo (I2V) via une intégration native intégration intégration via LTXPipeline et LTXImageToVideoPipeline.
Louer un GPU sur Clore.ai vous donne un accès instantané au matériel dont LTX-Video a besoin, sans investissement initial et avec une facturation à l'heure.
Principales caractéristiques
Plus rapide que le temps réel — vidéo de 5 secondes générée en ~4 secondes sur une RTX 4090.
Texte vers Vidéo — produire des clips à partir de descriptions en langage naturel.
Image vers Vidéo — animer une image de référence statique avec contrôle du mouvement et de la caméra.
Architecture légère — DiT vidéo de 2 milliards de paramètres avec un espace latent compact.
Diffusers natifs —
LTXPipelineetLTXImageToVideoPipelinedansdiffusers >= 0.32.Poids ouverts — licence Apache-2.0 ; utilisation commerciale pleinement autorisée.
VAE temporel — ratio de compression 1:192 à travers l'espace et le temps ; décodage efficace.
Exigences
VRAM GPU
16 Go
24 Go
RAM système
16 Go
32 Go
Disque
15 Go
30 Go
Python
3.10+
3.11
CUDA
12.1+
12.4
intégration
0.32+
dernière
Recommandation GPU Clore.ai : Un RTX 4090 (24 Go, ~0,5–2 $/jour) est idéal pour un débit maximal. Un RTX 3090 (24 Go, ~0,3–1 $/jour) fonctionne toujours plus rapidement que de nombreux modèles concurrents pour une fraction du coût.
Démarrage rapide
Exemples d'utilisation
Texte vers Vidéo
Image vers Vidéo
Script de génération par lot
Conseils pour les utilisateurs de Clore.ai
Benchmark de vitesse — sur une RTX 4090, LTX-Video génère 121 images en ~4 secondes ; utilisez ceci comme vérification que votre location fonctionne correctement.
Précision bf16 — le point de contrôle est entraîné en bf16 ; ne passez pas en fp16 sous peine de dégrader la qualité.
Mettre en cache les poids — définissez
HF_HOME=/workspace/hf_cachesur un volume persistant. Le modèle fait ~6 Go ; le retéléchargement à chaque démarrage de conteneur fait perdre du temps.Ingénierie de prompts — LTX-Video répond bien au langage cinématographique : "plan drone", "ralenti", "heure dorée", "plan de suivi". Soyez précis sur le mouvement de la caméra.
Traitement par lot pendant la nuit — LTX-Video est assez rapide pour générer des centaines de clips par heure sur une 4090. Mettez les prompts en file depuis un fichier et laissez-le tourner.
SSH + tmux — exécutez toujours la génération à l'intérieur d'une
tmuxsession afin que des connexions interrompues n'interrompent pas les longs travaux par lot.Surveiller la VRAM —
watch -n1 nvidia-smidans un second terminal pour vous assurer que vous n'atteignez pas la swap.
Dépannage
OutOfMemoryError
Réduire num_frames à 81 ou largeur/hauteur à 512×320
Modèle introuvable dans diffusers
Mise à jour : pip install -U diffusers — LTXPipeline requiert diffusers ≥ 0.32
Sortie noire ou statique
Assurez-vous de passer un negative_prompt; augmentez guidance_scale à 8–9
ImportError : imageio
pip install imageio[ffmpeg] — backend ffmpeg nécessaire pour l'export MP4
Première inférence lente
La première exécution compile les kernels CUDA et télécharge les poids ; les exécutions suivantes sont rapides
Artefacts de banding de couleur
Utilisez torch.bfloat16 (pas float16) ; le bfloat16 a une plage dynamique plus large
Conteneur redémarré en plein travail
Définir HF_HOME vers un stockage persistant ; les téléchargements HF partiels reprennent automatiquement
Mis à jour
Ce contenu vous a-t-il été utile ?