Computergrafik: US-Forscher modellieren Gesichter in Videos dreidimensional
Prinz Charles wird nachgebaut: US-Forscher rekonstruieren Gesichter aus beliebigen Youtube-Videos. Daraus erzeugen sie eine dreidimensionale Animation, in der sich das Gesicht genau wie das im originalen Video verhält.

Aus 2D mach 3D: US-Forscher haben ein Verfahren entwickelt, um aus Videoaufnahmen einer Person eine 3D-Animation zu erzeugen. Dazu bedarf es keiner speziellen Aufnahmetechnik. Vorhandenes Bildmaterial reicht, um das Video digital nachzubilden.
Ausgangsmaterial sind ein Video sowie Fotos einer Person. Supasorn Suwajanakorn, Ira Kemelmacher-Shlizerman und Steven Seitz von der Universität des US-Bundesstaates Washington in Seattle haben sich auf Prominente wie den englischen Thronfolger Prinz Charles, den Schauspieler Arnold Schwarzenegger oder den ehemaligen US-Präsidenten George W. Bush konzentriert, da von ihnen sehr viel Material im Netz zu finden ist.
Öffentlich zugängliches Material
Videos wie Fotos sind nicht eigens dafür aufgenommen worden, sondern stammen aus öffentlich zugänglichen Quellen, wie etwa dem Videoportal Youtube. Ein 3D-Modell des Gesichts ist ebenso wenig nötig wie definierte Bedingungen, etwa bei der Beleuchtung oder der Ausrichtung des Gesichts zur Kamera. Der Abgebildete muss auch nicht per Motion Capturing aufgenommen werden.
Zunächst wird aus mehreren Fotos ein zweidimensionales Basismodell erzeugt, das dann in ein einfaches dreidimensionales Modell überführt wird - die Methode für diese beiden Schritte haben Kemelmacher-Shlizerman und Seitz schon 2011 vorgestellt.
Gleiche Pose, gleiche Mimik
Im dritten Schritt wird die Ausrichtung des Gesichts in einem Videobild bestimmt und das 3D-Basismodell daran angepasst. Als nächstes wird das Basismodell so verändert, dass es den gleichen Gesichtsausdruck zeigt wie die Person in dem jeweiligen Videoframe. Das 3D-Modell ist jetzt so ausgerichtet wie das Bild im Video und zeigt die gleiche Mimik.
Es ist aber immer noch relativ grob. Im fünften und letzten Schritt werden deshalb die Details im Gesicht angepasst, wie Schattierungen, Falten oder die Textur der Haut. Am Ende hat das System aus dem originalen Video eine Animation eines Gesichts erzeugt, die dem Video weitgehend entspricht. Das bedeutet, das künstlich erzeugte Gesicht macht die gleichen Bewegungen und die gleiche Mimik mit wie das Original.
Große Kontraste
Zu große Kontraste können allerdings das Ergebnis verschlechtern: Wenn Teile des Gesichts im tiefen Schatten liegen oder Licht auf der Haut reflektiert, fehlt an der entsprechenden Stelle die Bildinformation, um ein 3D-Modell zu erstellen. Diese Einschränkung dürfte jedoch nicht so gravierend sein, wenn nur einzelne Partien davon betroffen sind.
Die Wissenschaftler aus Seattle haben ihr Verfahren Total Moving Face Reconstruction kürzlich auf der European Conference on Computer Vision (ECCV) in Zürich vorgestellt.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Ja, man kann durch die Verwendung mehrerer Bilder mehr Informationen herausquetschen...
Ich reagierte nur ausfallend auf deine Art, ausfallend zu werden. Natürlich war das...
Ich musst an das hier denken: Enemy of the state - Freeze,Rotate,Zoom,Focus,Enhance...