Original-URL des Artikels: https://www.golem.de/news/neuronale-netzwerke-ki-forscher-erwecken-die-mona-lisa-zum-leben-1905-141490.html    Veröffentlicht: 24.05.2019 12:42    Kurz-URL: https://glm.io/141490

Neuronale Netzwerke

KI-Forscher erwecken die Mona Lisa zum Leben

In Kooperation mit Samsung stellen Forscher eine Software vor, die mit möglichst wenigen Quellbildern Gesichter auf andere Gesichter in Videoclips übertragen kann. Das funktioniert bei echten Menschen und Gemälden - und lässt etwa die Mona Lisa zu einer sprechenden Person werden.

Forscher haben ein neuronales Netzwerk vorgestellt, das Gesichter und Gesichtsbewegungen auf andere Personen in Videoclips übertragen kann. In einer Präsentation erweckte das Team so beispielsweise Leonardo da Vincis Mona Lisa zum Leben. Interessant: Das eigentlich zweidimensionale Bild wird mit der Software in verschiedenen Perspektiven gerendert. Zusätzliche Informationen erstellt das System aus eigenen Lerndaten heraus. Veröffentlicht und dokumentiert wird das Projekt auf arxiv.org (PDF) von Samsung AI Center.

Obwohl die Idee an sich nicht neu ist, wie das Einmannprojekt Deepfakes beweist, ist der Vorteil des fertig trainierten Modells, dass mithilfe von möglichst wenigen Beispielbildern Ergebnisse erzeugt werden können. In der Youtube-Präsentation funktioniert das bereits bei einem einzelnen Bild, auch wenn weitere Daten - im Beispiel 16 Motive derselben Person - das Ergebnis sichtbar verbessern.

Training braucht viele Daten

Das Modell erstellt dabei ein abstraktes Modell des Gesichtes, das die für Menschen wichtigsten Elemente enthält. Dazu zählen die generelle Gesichtsform, der Mund, die Nase, die Augen und Augenbrauenbewegungen. Auf Basis dieser wenigen Daten wird eine Gesichtstextur auf ein anderes Gesicht gerendert. Das Ergebnis sieht bereits recht überzeugend aus, was besonders auf Kunstwerke wie die erwähnte Mona Lisa zutrifft. Einige Verzerrungen und Artefakte fallen dort nicht ganz so stark auf, wie es noch bei Aufnahmen von echten Personen der Fall ist.

<#youtube id="p1b5aiTrGzY">

Das Adversial Neural Network besteht aus zwei Systemen. Das eine prüft die Ergebnisse des anderen auf Authentizität und gibt eine Einschätzung und Feedback zurück. Basierend darauf passt das generierende Modell seine Parameter an, bis das Ergebnis für das prüfende System überzeugend ist. In dieser Lernphase reichen allerdings keine acht Beispielbilder aus. Stattdessen nutzen die Forscher den Videodatensatz Voxceleb2 mit 6.000 verschiedenen Sprechern, die mehr als eine Millionen Samples stellen.  (on)


Verwandte Artikel:
Künstliche Intelligenz: Auch Samsung soll SoC mit zwei KI-Kernen produzieren   
(06.11.2018, https://glm.io/137528 )
Nvidia: Petswap wandelt Labradore in Hyänen und Eisbären um   
(16.05.2019, https://glm.io/141295 )
Best Buy: US-Händler storniert Vorbestellungen des Galaxy Fold   
(24.05.2019, https://glm.io/141500 )
Neues Kameramodul: Samsung baut eigenes Periskop-Teleobjektiv für Smartphones   
(22.05.2019, https://glm.io/141430 )
Sicherheit: Bundeswehr bekommt neue Smartphones ohne Internetzugang   
(18.05.2019, https://glm.io/141335 )

© 1997–2019 Golem.de, https://www.golem.de/