Zum Hauptinhalt Zur Navigation

Gen-3 Alpha: Runway stellt KI-Video-Modell mit 10-Sekunden-Clips vor

Runway ML hat sein neues generatives KI-Videomodell , Gen-3 Alpha, vorgestellt, das 10-sekündige Clips erstellen kann.
/ Andreas Donath
Kommentare News folgen (öffnet im neuen Fenster)
Gen-3 Alpha (Bild: Runway ML)
Gen-3 Alpha Bild: Runway ML

Das in New York City ansässige Start-up Runway ML(öffnet im neuen Fenster) hat ein neues generatives KI-Videomodell präsentiert, das Nutzern die Möglichkeit bietet, realistische und detaillierte Videoclips mit einer Länge von bis zu 10 Sekunden zu erstellen.

Nachdem Runway Konkurrenz durch Sora von OpenAI und Dream Machine Luma AI bekommen hatte, versucht das Start-up, diese durch besonders lange Clips hinter sich zu lassen.

Laut dem Blogpost von Runway stellt Gen-3 Alpha(öffnet im neuen Fenster) einen bedeutenden Schritt auf dem Weg zum Aufbau von General-World-Models dar - KI-Modelle, die in der Lage sind, ein breites Spektrum von Situationen und Interaktionen darzustellen.

Durch das Training des Modells auf einer neuen Infrastruktur, die für multimodales Training in großem Maßstab entwickelt wurde, zielt Runway darauf ab, eine KI zu schaffen, die die Komplexität der Welt besser nachbilden kann.

Das Gen-3-Alpha-Modell ist das erste in einer Reihe von kommenden Modellen, die diese neue Trainingsinfrastruktur nutzen werden. Die zahlenden Nutzer können sich auf schnellere Generierungszeiten freuen: Ein 5-Sekunden-Clip wird in nur 45 Sekunden generiert, ein 10-Sekunden-Clip in nur 90 Sekunden. Dies stellt eine erhebliche Verbesserung gegenüber früheren Generationen von KI-Videomodellen dar.

Obwohl keine spezifischen Trainingsdatensätze bekanntgegeben wurden, versichert Runway, dass es kuratierte, interne Datensätze zum Trainieren seiner Modelle verwendet, die von einem internen Forschungsteam überwacht werden.

Während das genaue Veröffentlichungsdatum und die Preisgestaltung noch nicht bekannt gegeben wurden, bestätigte Runway, dass Gen-3 Alpha zunächst für zahlende Abonnenten verfügbar sein wird. Das Modell wird alle bestehenden Modi unterstützen: Text-zu-Video, Bild-zu-Video und Video-zu-Video.


Relevante Themen