stability.ai stellt das neue Modell Stability Video Diffusion vor, das AI Videos auf Basis des Bildmodells Stability Diffusion generiert. Es handelt sich noch um eine „Forschungsversion“ („research release“), das noch nicht für den kommerziellen Einsatz gedacht ist.
Es gibt zwei Varianten des Modells, die in der Lage sind Videos mit 14 bzw. 25 Einzelbildern zu generieren, mit Bildfrequenzen von 3 bis 30 Bildern / sek.
Das neue Modell beherrscht verschiedene Modi:
- Text-to-Video: Ein Text-Prompt generiert ein Video (siehe Video unten)
- Image-to-Video: Aus einem Bild wird ein Video erzeugt
- Multi-View: Aus einem Einzelbild eines Objekts werden verschiedene Ansichten erzeugt
Um die Qualität des neuen Modells zu testen, wurden Nutzer gebeten, die Ergebnisse mit Videos zu vergleichen, die mit Pikalabs und Runway generiert wurden – mit gleichen oder besseren Bewertungen für Stability Video Diffusion.
Wer sich für das neue Modell interessiert, kann sich hier auf die Warteliste setzen lassen.
Quellen: