Minimax von Hailuo AI hat mit der Subject Reference eine Funktion eingeführt, die es ermöglich soll, auf der Basis nur eines einzigen Fotos (1!) konsistente Videos mit dieser Person zu generieren. Damit wäre kein dafür aufwendiges Modelltraining wie bei Kling AI mehr erforderlich.
Das musste ich natürlich gleich ausprobieren:
- mit ein paar Fotos von mir
- mit ein paar in Midjourney generierten realistischen Personen
- und mit einigen nicht-realistischen Charakteren
Es müssen lediglich Personen sein, mit Tieren und Objekten funktioniert die Subject Reference (noch) nicht.
Die Vorgehensweise ist denkbar einfach:
- In Minimax wählt Ihr den neuen Reiter „Subject Reference“
- …ladet ein Foto hoch und …
- … gebt einen Prompt dazu ein. Das war es auch schon.





Und wie sind die Ergebnisse?
- bei Close-up Aufnahmen ist die Konsistenz verblüffend gut, wenn auch nicht in allen Details 100%ig (Haare, Brille, Schmuck, Kleidung). Durch genauere Prompts lässt sich das aber verbessern.
- Je weiter sich die virtuelle Kamera von der Person entfernt, desto schlechter werden die Ergebnisse.
- Menschliche Bewegungen sind gut.
- Die Konsistenz innerhalb der Sequenzen ist sehr gut.
- Minimax typisch bewegen die Personen öfters einfach so ihren Mund
Die Ergebnisse sind also bereits wirklich gut, wenn auch noch lange nicht produktiv nutzbar.
Die Funktion wird aber zum einen mit der Zeit sicher immer besser und ist zum anderen ein weiterer Schritt in die Richtung, die es immer mehr kreativen Menschen ermöglichen wird, ihre kreativen Visionen zu realisieren, ohne dass es dazu ein tieferes technisches Verständnis braucht.
Was denkt Ihr, habt Ihr die Funktion schon getestet?
Also meine Videos sind irgendwie sehr eintönig hinsichtlich der Farben, irgendwie als wären es bewegte GIFs mit nur 256 Farben.
Ich hatte auch ein paar gruselige Ergebnisse zwischendurch, da ist noch Luft nach oben, insbesondere bei der Qualität. Ich bin mir aber sicher, dass das schnell besser wird.