Adobe Max: Adobe zeigt automatische KI-Synchronstimmen

Auf der Hausmesse Adobe Max in Los Angeles hat das Unternehmen bei der Vorschau Sneaks(öffnet im neuen Fenster) Funktionen in Entwicklung gezeigt.
Die Präsentation umfasste einige bereits einsatzfähig wirkende Werkzeuge, die alle auf Maschinenlernen basieren. Sie könnten in den kommenden Versionen von Lightroom, Photoshop oder dem neuen, webbasierten Express auftauchen. Da Adobe auch KI-Modelle für Bewegtbild, 3D-Modellierung und Audio plant, sind die gezeigten Demos natürlich in Zukunft auch dort einsetzbar.
Project Fast Fill
Die generative Erstellung von Inhalten für Fotos wird mit Project Fast Fill auf Bewegtbild ausgeweitet. In der gezeigten Demo reichte es aus, eine grobe Maske um Bildanteile zu zeichnen, um diese über den Zeitraum des gesamten Videoclips zu entfernen. Alternativ lassen sich neue Elemente mit Textprompts hinzufügen. Als Beispiel zeigte der Entwickler, wie eine Krawatte in einem Video nachträglich zum Anzug eines laufenden Mannes hinzugefügt werden kann.
Project Stardust
Unerwünschte Objekte oder Personen kann man derzeit schon KI-unterstützt aus Bildern entfernen. Mit Projekt Stardust erfordert das jedoch nur noch einen Klick. Wird das markierte Objekt verschoben, füllt sich auch der Hintergrund automatisch generativ. Aus einem normalen Foto generiert Project Stardust eine Objektansammlung, die wie einzelne Ebenen in Photoshop behandelt werden kann. Auf Smartphones kommt eine ähnliche, auf maschinellem Lernen basierende Technologie in den aktuellen Google-Geräten zum Einsatz. Die gezeigte Funktion bietet jedoch viel mehr Möglichkeiten der individuellen Anpassung aller Objekte in einem Bild - von der Farbgebung bis zum Einfügen neuer Objekte.
Project See Through
Reflexionen sind ein Standardproblem in der Fotografie. Normalerweise bedingen sie den Einsatz eines Polfilters vor dem Objektiv bei der Aufnahme. Project See Through erkennt die wichtigen Motive und separiert die Reflexionen der wichtigen Bildinhalte, um sie danach zu verwerfen. Die Demonstration zeigte beeindruckend, wie mit einem Klick die störenden Reflexionen verschwanden.
Project Dub Dub Dub
Übersetzungen im Filmbereich sind kostspielig und aufwändig. Ein bei Sneaks vorgestelltes Werkzeug soll den Prozess stark vereinfachen: Nach Auswahl der Zielsprache wird die Audiospur transkribiert, per KI mit einer angepassten Version der Originalstimme neu generiert und zeitlich passend unter das Bild gelegt. In der gezeigten Demo wurden aus einem drei Sekunden langen Schnipsel in Chinesisch überzeugend mehrere Sprachen generiert. Ein Ausschnitt aus dem Film His Girl Friday(öffnet im neuen Fenster) , der sehr schnelle Dialoge beinhaltet, zeigte, dass sowohl die männliche als auch die weibliche Stimme klar verständlich übersetzt wurden.
Project Poseable
Project Poseable ist eine neue Methode, KI-generierte Bilder aus dreidimensionalen Objekten zu erstellen. Sie kombiniert beispielsweise automatisch die Pose des 3D-Modells einer Person mit einem Sessel. Das entstandene simple und untexturierte Modell lässt sich aus jeder beliebigen Richtung betrachten, daraus kann per Textprompt ein aufwändigeres 2D-Bild generiert werden.
Ob und wann die gezeigten Prototypen in die Adobe-Programme integriert werden, wurde nicht bekannt gegeben. Üblicherweise testet das Unternehmen die Reaktion der Community mit solchen Einblicken in die Entwicklung. Bis zum finalen Produkt kann es mitunter noch Jahre dauern(öffnet im neuen Fenster) .
Offenlegung: Golem.de nahm auf Einladung von Adobe an der Veranstaltung in Los Angeles teil. Die Reisekosten wurden von dem Konzern komplett übernommen. Unsere Berichterstattung ist davon nicht beeinflusst und bleibt gewohnt neutral und kritisch. Der Artikel ist, wie alle anderen auf unserem Portal, unabhängig verfasst und unterliegt keinerlei Vorgaben seitens Dritter.



