Original-URL des Artikels: https://www.golem.de/news/kuenstliche-intelligenz-obama-imitation-beleidigt-den-us-praesidenten-trump-1804-133913.html    Veröffentlicht: 18.04.2018 10:45    Kurz-URL: https://glm.io/133913

Künstliche Intelligenz

Obama-Imitation beleidigt den US-Präsidenten Trump

Mit Hilfe der bereits bekannten KI-Software Fakeapp und Adobe After Effects wurde ein Videoclip erstellt, der den ehemaligen US-Präsidenten Obama beleidigende Sätze sprechen lässt. Die Fälschung ist bereits sehr gelungen, aber nicht ohne Fehler. Das Potenzial solcher Techniken ist schon groß.

Der aus dem Film Get Out bekannte Regisseur Jordan Peele und das Onlinemagazin Buzzfeed haben mit Hilfe künstlicher Intelligenz den ehemaligen US-Präsidenten Barack Obama imitiert. In einem kurzen Youtube-Video äußert sich die täuschend echte Imitation über Falschnachrichten und beleidigt nebenbei den amtierenden US-Präsidenten Donald Trump. Im zu sehenden Clip werden sowohl Gesichtsausdrücke als auch die Stimme Obamas imitiert.

Für die Realisierung dieses Projekts nutzten die Ersteller das Videoeffektprogramm Adobe After Effects und das vom Hobbyentwickler Deepfakes erstellte Programm Fakeapp. Dieses konnte Anfang des Jahres Aufmerksamkeit erregen, da es mit einem Deep-Learning-Algorithmus Gesichter von Prominenten auf Pornodarsteller setzen kann. Die Grundlage: Googles KI-Framework Tensorflow, das offen genutzt werden kann. Das Ergebnis ist aber nicht fehlerfrei. So klingt Obamas Stimme noch etwas blechern und wirkt ein wenig künstlich. Außerdem sind an einigen Stellen Gesichtsausdrücke eingefroren oder nicht richtig an das Gesicht des Schauspielers angepasst.

<#youtube id="cQ54GDm1eL0">

Gesichtsimitationen in Spielen möglich

Trotzdem: Der Einsatz von Machine Learning macht nahezu ununterscheidbare falsche Inhalte möglich, wird aber auch bereits in anderen Situationen eingesetzt. Das Weltraumsimulationsspiel Star Citizen analyisiert etwa die Gesichtsausdrücke der Spieler und überträgt diese auf Spielfiguren. Das Rendering erfolgt live auf dem Computer. Bisher ist diese Funktion allerdings noch nicht implementiert.

Auf der anderen Seite gibt es bereits Projekte, die Machine Learning zum Entdecken solcher Falschinhalte nutzen wollen. Ein Beispiel ist Adverif.ai, das Anzeigen analysiert und deren Inhalt mit den Richtlinien von Kunden vergleicht. So sollen falsche Informationen oder unangebrachte Werbung vermieden werden. Allerdings können Nachrichten nicht nur über gefälschte Videos und Bilder übertragen werden. Ein Forschungsteam entwickelt beispielsweise einen Algorithmus, der Sprachnachrichten in Musik versteckt, ohne das Hörer das mitbekommen.  (on)


Verwandte Artikel:
Initiative Applied AI: KI verstehen und ihren Gesellschaftseinfluss diskutieren   
(11.04.2018, https://glm.io/133787 )
KI: Machine-Learning-System scannt Personen als 3D-Modelle ein   
(18.04.2018, https://glm.io/133922 )
Künstliche Intelligenz: Microsofts Übersetzer verwendet KI auch offline   
(19.04.2018, https://glm.io/133935 )
AWS Sagemaker und S3: Daten in nur einer Verfügbarkeitszone preiswerter speichern   
(05.04.2018, https://glm.io/133678 )
Google AIY Vision und Voice: Tensorflow-KI und Raspberry Pi im Pappwürfel   
(17.04.2018, https://glm.io/133901 )

© 1997–2020 Golem.de, https://www.golem.de/