Was tun, wenn's trumpt?

Besonders im gesellschaftspolitisch gereizten Klima in den USA ist die Furcht vor dem destruktiven Potenzial von Deep Fakes groß. Der Präsidentschaftswahlkampf 2016 war geprägt von Desinformation und mutmaßlichen Manipulationsversuchen. 2020 wird erneut gewählt - und die Sorge, dass es ähnlich schlimm wird, ist groß. Was, wenn Deep Fakes die Spaltung im Land weiter anfachen? Wenn Kandidaten diskreditiert werden - kurz vor einer Kopf-an-Kopf-Abstimmung?

Sorgen wie diese haben dazu geführt, dass allerorten reagiert wird. Darpa, die Forschungsagentur des US-Verteidigungsministeriums, gibt dafür einen zweistelligen Millionenbetrag aus, dass Methoden zur Enttarnung von Deep Fakes erforscht werden. Facebook hat einen Wettbewerb ausgerufen: 10 Millionen US-Dollar will das Unternehmen für die Entwicklung von Deep-Fake-Erkennung und -Prävention zahlen. Auch Google engagiert sich. In den USA wird an der Erkennung von Deep Fakes geforscht, aber auch Teams aus Deutschland und anderen Ländern arbeiten daran.

Parallel dazu haben einige US-Bundesstaaten bereits Gesetze beschlossen, die Deep Fakes unter bestimmten Umständen verbieten. Vor Wahlen etwa - oder wenn in den Videos Sex gezeigt wird, der nicht mit Zustimmung aller dort gezeigten Personen zustande kam. Auch in Washington wird über Deep Fakes diskutiert. Und Medien und Wissenschaftler reden sich ebenfalls die Köpfe heiß.

Die Evolution der perfekten Täuschung

Einige Deep Fakes wirken heute noch sehr plump, andere schon überzeugend - insbesondere dann, wenn Personen zu sehen sind, die dem Zuschauer weniger vertraut sind. Vor allem ist es aber beunruhigend zu beobachten, wie schnell die Deep Fakes besser werden.

Es liegt auf der Hand, dass sich die Film- und Computerspielbranche brennend für die Technologie hinter Deep Fakes interessieren. Einfach weil die Technologie Eingriffe in der Postproduktion fast schon trivial machen würde. Auch digitale Modehändler experimentieren damit - etwa um ihre Kreationen von künstlich erzeugten Models präsentieren zu lassen. Andere Branchen ebenso. Was wieder einmal zeigt: Eine Technologie, die den einen als gesellschaftliches Risiko gilt, kann von anderen völlig harmlos oder sogar konstruktiv genutzt und entwickelt werden.

Bis sie ganz real aussehen, dürfte es nur noch irgendetwas zwischen sechs Monaten und einem Jahr dauern, schätzte Hao Li kürzlich in einem Interview. Li arbeitet an KI-gestützter Bewegtbildbearbeitung - und gilt manchen gar als Deep-Fakes-Pionier. Er ist einer, der rund um diese Technologie viele Rollen gleichzeitig einnimmt. Einerseits hat der 38-Jährige eine Firma gegründet, die fortschrittliche KI-Technologien für die Film- und Computerspielindustrie einsetzt. Er arbeitete daran mit, Apples Emojis mit Gesichtsausdrücken zu animieren und den verstorbenen Schauspieler Paul Walker posthum in den Hollywood-Blockbuster Furious 7 zu montieren.

Li ist aber auch außerordentlicher Professor an der University of Southern California und forscht mit daran, Deep Fakes besser erkennen zu können. Er sei überzeugt, dass es möglich wäre, Deep Fakes zu erzeugen, die weder von Menschen noch von Maschinen erkannt werden könnten, schreibt er in einer E-Mail an Zeit Online. Was übersetzt bedeuten würde: In Zukunft könnte nicht nur das bloße Auge, sondern auch die IT-Forensik bei gut gemachten Fälschungen darin versagen, das echte vom bearbeiteten, "deepgefakten" Videomaterial zu unterscheiden.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Deep Fakes: Hello, Adele - bist du's wirklich?Von Quatsch bis Putsch 
  1.  
  2. 1
  3. 2
  4. 3
  5. 4
  6. 5
  7.  


polomo 06. Dez 2019

@Hotohori Auch das war schon immer der Fall Das Problem ist, dass Videos früher als...

dark_matter 02. Dez 2019

Aus dem Artikel: "Was aber bringt es am Ende, einen Deep Fake zu erkennen? Viele Probleme...

DieTatsaechlich... 27. Nov 2019

Ein Staatsoberhaupt oder eine Regierung wurden doch bisher nocht nicht durch "Deep Fakes...



Aktuell auf der Startseite von Golem.de
T-1000
Roboter aus Metall kann sich verflüssigen

Ein Team aus den USA und China hat einen Roboter entwickelt, der seinen Aggregatzustand von fest zu flüssig und zurück ändern kann.

T-1000: Roboter aus Metall kann sich verflüssigen
Artikel
  1. Trotz Exportverbot: Chinesische Kernforscher nutzen weiter US-Hardware
    Trotz Exportverbot
    Chinesische Kernforscher nutzen weiter US-Hardware

    An Chinas wichtigstes Kernforschungszentrum darf seit 25 Jahren keine US-Hardware geliefert werden. Dennoch nutzt es halbwegs aktuelle Xeons und GPUs.

  2. Playstation 5: Teaser wirbt für Spider-Man 2 - und Uncharted 5?
    Playstation 5
    Teaser wirbt für Spider-Man 2 - und Uncharted 5?

    Im Teaser springt Spider-Man durch Manhattan. Im gleichen Video könnte es einen Hinweis auf Uncharted 5 geben.

  3. Virtualisieren mit Windows, Teil 3: Betrieb und Pflege von VMs mit Hyper-V
    Virtualisieren mit Windows, Teil 3
    Betrieb und Pflege von VMs mit Hyper-V

    Hyper-V ist ein Hypervisor, um VMs effizient verwalten zu können. Trotz einiger weniger Schwächen ist es eine gute Virtualisierungssoftware, wir stellen sie in drei Teilen vor. Im letzten geht es um Betrieb und Pflege der VMs.
    Eine Anleitung von Holger Voges

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • PCGH Cyber Week - Rabatte bis 50% • Acer Predator 32" WQHD 170Hz 529€ • MindStar-Tiefstpreise: MSI RTX 4090 1.982€, Sapphire RX 7900 XT 939€ • Philips Hue bis -50% • Asus Gaming-Laptops bis -25% • XFX Radeon RX 7900 XTX 1.199€ • Kingston 2TB 112,90€ • Nanoleaf bis -25% [Werbung]
    •  /