Deep Fakes: Die Leute hinter Nixons Rede zur gescheiterten Mondmission
In einem Deep-Fakes-Experiment spricht der Ex-US-Präsident zur Nation. Für Schauspieler und MIT-Forscherinnen war das komplettes Neuland.

Der Schauspieler Lewis D. Wheeler spricht von Erschöpfung, aber auch von einem für ihn sehr interessanten neuen Berufsfeld. Er war das Gesicht und die Stimme für ein Deep-Fakes-Experiment des Massachusetts Institute of Technology (MIT). Das Ziel: den ehemaligen US-Präsidenten Richard Nixon virtuell zum Leben zu erwecken und von der fehlgeschlagenen Mondlandung zu berichten.
In dem kurzen fertigen Clip - von dem Golem.de bereits vor einigen Monaten berichtete - wird klar, wie realistisch die Manipulation von Videos durch Deep Learning mittlerweile ist. "Das Schicksal hat bestimmt, dass die Männer, die zum Mond gegangen sind, um dort in Frieden zu forschen, auf dem Mond bleiben werden, um in Frieden zu ruhen", sagt das Abbild von Richard Nixon im Video. Diese Rede war für den Fall einer fehlgeschlagenen Mondlandung vorbereitet worden und musste in Realität nie vorgetragen werden.
Wheeler lieh dem virtuellen Alter-Ego seine Stimme und Mimik, damit die Ansprache so realistisch wie möglich erscheinen würde. Der Gesichtsaustausch wurde mit Hilfe von Canny AI realisiert, einem kommerziellen Programm für diesen und andere Zwecke. Außerdem wurde Respeecher verwendet, welches Stimmensamples so moduliert, dass sie wie eine andere Person - in diesem Fall Richard Nixon - klingen.
Die Wurzeln von Deep Fakes
Durchgeführt wurde das Experiment von den Forscherinnen Francesca Panetta und Halsey Burgund, beide Multimedia-Künstlerinnen. "Das ist so neu, dass es nicht wirklich einen Ablauf oder dergleichen gibt", sagt Burgund dem Branchenmagazin Technology Review. "Ich meine, wir wedeln irgendwie herum und denken uns die Dinge einfach aus". Die beiden Macherinnen sind anscheinend genauso auf Neuland gestoßen wie der Schauspieler Lewis D. Wheeler, der Nixon verkörpert.
Gerade das Aufnehmen der eigenen Stimme sei besonders merkwürdig und interessant gewesen, berichtet Wheeler. Respeech nutzt einzelne Wortschnipsel als Eingabe. Diese teils nicht zusammenhängenden Silben musste der Schauspieler in einem Tonstudio einsprechen. Allein das hat mehrere Tage gedauert. Zusätzlich wurde der Deep-Learning-Software Quellmaterial aus Nixons Amtszeit übergeben. Zu großen Teilen wurden Ausschnitte der Abtrittsrede des Ex-Präsidenten verwendet. Dies war eine gute Datenbasis für eine eher traurige und enttäuschte Tonlage - passend zu einer traurigen und enttäuschten Rede.
Kim Jong Un verspottet Demokratie
Die Gesichtsaufnahme mit Canny AI sei für ihn wesentlich einfacher gewesen, da dort schauspielerische Fähigkeiten mehr zum Tragen gekommen seien, sagte Wheeler und fügte hinzu: "Ich musste mich wirklich in den Gedanken reinversetzen und denken: Okay, worum geht es in der Rede? Wie erklärst du dem amerikanischen Volk, dass diese Tragödie stattgefunden hat?". In einem Filmstudio wurden Mimik und Gesichtszüge des Schauspielers aufgenommen und auf das virtuell erstellte Gesicht von Nixon gesetzt. Der Körper des Protagonisten und der Hintergrund der Szene wurden der Original-Rede von 1969 entnommen. Das Ergebnis ist eine realistische Nachstellung dessen, was hätte passieren können.
Deepfakes werden immer häufiger in Medien eingesetzt. Ein Beispiel ist auch ein politischer Werbespot, der zum Mitmachen in einer Demokratie anregt. Dort zu sehen ist der nordkoreanische Staatschef Kim Jong Un, der lächelnd die Zerbrechlichkeit des westlichen Staatssystems anprangert. Trotzdem scheint der Prozess an sich noch recht neu zu sein. Das bestätigt das Nixon-Experiment.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Naidoo und Gates auch noch mit rein. Wendler muss nicht - den kennt eh niemand. :D
Da bist du nicht alleine, ich bin mir sicher, dass schon mal gelesen und gesehen zu...