Was tun, wenn's trumpt?
Besonders im gesellschaftspolitisch gereizten Klima in den USA ist die Furcht vor dem destruktiven Potenzial von Deep Fakes groß. Der Präsidentschaftswahlkampf 2016 war geprägt von Desinformation und mutmaßlichen Manipulationsversuchen. 2020 wird erneut gewählt - und die Sorge, dass es ähnlich schlimm wird, ist groß. Was, wenn Deep Fakes die Spaltung im Land weiter anfachen? Wenn Kandidaten diskreditiert werden - kurz vor einer Kopf-an-Kopf-Abstimmung?
Sorgen wie diese haben dazu geführt, dass allerorten reagiert wird. Darpa, die Forschungsagentur des US-Verteidigungsministeriums, gibt dafür einen zweistelligen Millionenbetrag aus, dass Methoden zur Enttarnung von Deep Fakes erforscht werden. Facebook hat einen Wettbewerb ausgerufen: 10 Millionen US-Dollar will das Unternehmen für die Entwicklung von Deep-Fake-Erkennung und -Prävention zahlen. Auch Google engagiert sich. In den USA wird an der Erkennung von Deep Fakes geforscht, aber auch Teams aus Deutschland und anderen Ländern arbeiten daran.
Parallel dazu haben einige US-Bundesstaaten bereits Gesetze beschlossen, die Deep Fakes unter bestimmten Umständen verbieten. Vor Wahlen etwa - oder wenn in den Videos Sex gezeigt wird, der nicht mit Zustimmung aller dort gezeigten Personen zustande kam. Auch in Washington wird über Deep Fakes diskutiert. Und Medien und Wissenschaftler reden sich ebenfalls die Köpfe heiß.
Die Evolution der perfekten Täuschung
Einige Deep Fakes wirken heute noch sehr plump, andere schon überzeugend - insbesondere dann, wenn Personen zu sehen sind, die dem Zuschauer weniger vertraut sind. Vor allem ist es aber beunruhigend zu beobachten, wie schnell die Deep Fakes besser werden.
Es liegt auf der Hand, dass sich die Film- und Computerspielbranche brennend für die Technologie hinter Deep Fakes interessieren. Einfach weil die Technologie Eingriffe in der Postproduktion fast schon trivial machen würde. Auch digitale Modehändler experimentieren damit - etwa um ihre Kreationen von künstlich erzeugten Models präsentieren zu lassen. Andere Branchen ebenso. Was wieder einmal zeigt: Eine Technologie, die den einen als gesellschaftliches Risiko gilt, kann von anderen völlig harmlos oder sogar konstruktiv genutzt und entwickelt werden.
Bis sie ganz real aussehen, dürfte es nur noch irgendetwas zwischen sechs Monaten und einem Jahr dauern, schätzte Hao Li kürzlich in einem Interview. Li arbeitet an KI-gestützter Bewegtbildbearbeitung - und gilt manchen gar als Deep-Fakes-Pionier. Er ist einer, der rund um diese Technologie viele Rollen gleichzeitig einnimmt. Einerseits hat der 38-Jährige eine Firma gegründet, die fortschrittliche KI-Technologien für die Film- und Computerspielindustrie einsetzt. Er arbeitete daran mit, Apples Emojis mit Gesichtsausdrücken zu animieren und den verstorbenen Schauspieler Paul Walker posthum in den Hollywood-Blockbuster Furious 7 zu montieren.
Li ist aber auch außerordentlicher Professor an der University of Southern California und forscht mit daran, Deep Fakes besser erkennen zu können. Er sei überzeugt, dass es möglich wäre, Deep Fakes zu erzeugen, die weder von Menschen noch von Maschinen erkannt werden könnten, schreibt er in einer E-Mail an Zeit Online. Was übersetzt bedeuten würde: In Zukunft könnte nicht nur das bloße Auge, sondern auch die IT-Forensik bei gut gemachten Fälschungen darin versagen, das echte vom bearbeiteten, "deepgefakten" Videomaterial zu unterscheiden.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Deep Fakes: Hello, Adele - bist du's wirklich? | Von Quatsch bis Putsch |
@Hotohori Auch das war schon immer der Fall Das Problem ist, dass Videos früher als...
Aus dem Artikel: "Was aber bringt es am Ende, einen Deep Fake zu erkennen? Viele Probleme...
Ein Staatsoberhaupt oder eine Regierung wurden doch bisher nocht nicht durch "Deep Fakes...
kwt :D