SkyReels-V3
Generieren Sie 24fps-Videos mit SkyReels-V3, Kunluns Wan2.1-basiertem offenem Videomodell, auf Clore.ai GPUs.
SkyReels-V3 ist ein Open-Source-Videogenerationsmodell von Kunlun (SkyWork AI), das auf der Wan2.1-Videearchitektur aufbaut. Es erzeugt flüssige 24-fps-Clips mit sowohl Text-zu-Video-(T2V)- als auch Bild-zu-Video-(I2V)-Fähigkeiten. Das Modell erbt Wan2.1s starke Bewegungs-Kohärenz und zeitliche Konsistenz und ergänzt diese um SkyWorks Trainingsverfeinerungen für verbesserte visuelle Qualität und bessere Einhaltung von Prompts.
SkyReels-V3 auszuführen auf Clore.ai ermöglicht dir den Zugriff auf die benötigten 24 GB VRAM ohne eigenen Hardwarekauf — miete eine RTX 4090 für ein paar Dollar und beginne mit der Generierung.
Hauptmerkmale
24 fps Ausgabe — flüssige, sendetaugliche Bildrate direkt einsatzbereit.
Text-zu-Video — generiere Clips aus natürlichsprachlichen Beschreibungen mit starker Prompt-Befolgung.
Bild-zu-Video — animiere ein Referenzbild mit steuerbarer Kamerabewegung und Subjektbewegung.
Basierend auf Wan2.1 — übernimmt die erprobte zeitliche Aufmerksamkeit und Bewegungsmodellierung der Wan-Architektur.
Mehrere Auflösungen — unterstützt Generierung in 480p und 720p je nach VRAM-Budget.
Offene Gewichte — verfügbar unter einer offenen Lizenz für Forschungs- und kommerzielle Nutzung.
Chinesisch + Englisch — zweisprachige Prompt-Unterstützung durch den Wan2.1-Textencoder.
Anforderungen
GPU-VRAM
16 GB (480p mit Offload)
24 GB
System-RAM
32 GB
64 GB
Festplatte
25 GB
50 GB
Python
3.10+
3.11
CUDA
12.1+
12.4
Clore.ai GPU-Empfehlung: Ein RTX 4090 (24 GB, ~0,5–2 $/Tag) ist der Sweet Spot — genug VRAM für 720p-Generierung in voller Präzision. Ein RTX 3090 (24 GB, ~0,3–1 $/Tag) funktioniert für 480p und bietet das beste Preis-pro-Clip-Verhältnis auf dem Marktplatz.
Schnellstart
Beispielanwendungen
Text-zu-Video
Bild-zu-Video
Niedrigere Auflösung — schnelle Vorschau
Tipps für Clore.ai-Nutzer
Wan-Pipeline-Klassen verwenden — SkyReels-V3 basiert architektonisch auf Wan2.1, daher verwendet es
WanPipeline/WanImageToVideoPipelineaus diffusers.Beginne bei 480p — iteriere zuerst an Prompts in niedrigerer Auflösung und generiere dann finale Clips in 720p, sobald du mit der Komposition zufrieden bist.
CPU-Offloading —
enable_model_cpu_offload()wird bei 24-GB-Karten für 720p-Generierung empfohlen, um OOM zu vermeiden.Persistenter Speicher — setze
HF_HOME=/workspace/hf_cacheauf einem Clore.ai Persistent Volume; das Modell wiegt ~15–20 GB.24 fps nativ — ändere die Export-fps nicht; die zeitliche Aufmerksamkeit des Modells wurde für 24-fps-Ausgabe trainiert.
Zweisprachige Prompts — der Wan2.1-Textencoder verarbeitet sowohl Englisch als auch Chinesisch; du kannst die Sprachen bei Bedarf mischen.
Guidance-Scale — 4.0–6.0 funktioniert am besten. Höhere Werte (>8) können zu Übersättigung führen.
tmux ist Pflicht — führe die Generierung immer in einer
tmuxSession auf Clore.ai aus, um SSH-Trennungen zu überleben.
Fehlerbehebung
OutOfMemoryError bei 720p
Aktivieren Sie pipe.enable_model_cpu_offload(); reduziere auf 480p falls weiterhin OOM
Modell nicht auf HuggingFace gefunden
Überprüfe den genauen Repo-Namen auf SkyworkAI HF-Seite — es könnte unter einem Variantenamen gelistet sein
Ruckartige oder flackernde Bewegung
Erhöhen Sie num_inference_steps auf 40; reduziere guidance_scale auf 4.0
Langsame Generierung
~1–3 Min pro 4-Sekunden-Clip auf einer RTX 4090 sind normal für 720p; 480p ist ungefähr 2× schneller
Farbverschiebung / Übersättigung
Niedriger guidance_scale auf 4.0–5.0
ImportError: imageio
pip install imageio[ffmpeg]
Gewichte werden beim Neustart erneut heruntergeladen
Hänge persistente Speicherung ein und setze HF_HOME Umgebungsvariable
Zuletzt aktualisiert
War das hilfreich?