• IT-Karriere:
  • Services:

Was tun, wenn's trumpt?

Besonders im gesellschaftspolitisch gereizten Klima in den USA ist die Furcht vor dem destruktiven Potenzial von Deep Fakes groß. Der Präsidentschaftswahlkampf 2016 war geprägt von Desinformation und mutmaßlichen Manipulationsversuchen. 2020 wird erneut gewählt - und die Sorge, dass es ähnlich schlimm wird, ist groß. Was, wenn Deep Fakes die Spaltung im Land weiter anfachen? Wenn Kandidaten diskreditiert werden - kurz vor einer Kopf-an-Kopf-Abstimmung?

Stellenmarkt
  1. GKV-Spitzenverband, Berlin
  2. Dataport, verschiedene Standorte

Sorgen wie diese haben dazu geführt, dass allerorten reagiert wird. Darpa, die Forschungsagentur des US-Verteidigungsministeriums, gibt dafür einen zweistelligen Millionenbetrag aus, dass Methoden zur Enttarnung von Deep Fakes erforscht werden. Facebook hat einen Wettbewerb ausgerufen: 10 Millionen US-Dollar will das Unternehmen für die Entwicklung von Deep-Fake-Erkennung und -Prävention zahlen. Auch Google engagiert sich. In den USA wird an der Erkennung von Deep Fakes geforscht, aber auch Teams aus Deutschland und anderen Ländern arbeiten daran.

Parallel dazu haben einige US-Bundesstaaten bereits Gesetze beschlossen, die Deep Fakes unter bestimmten Umständen verbieten. Vor Wahlen etwa - oder wenn in den Videos Sex gezeigt wird, der nicht mit Zustimmung aller dort gezeigten Personen zustande kam. Auch in Washington wird über Deep Fakes diskutiert. Und Medien und Wissenschaftler reden sich ebenfalls die Köpfe heiß.

Die Evolution der perfekten Täuschung

Einige Deep Fakes wirken heute noch sehr plump, andere schon überzeugend - insbesondere dann, wenn Personen zu sehen sind, die dem Zuschauer weniger vertraut sind. Vor allem ist es aber beunruhigend zu beobachten, wie schnell die Deep Fakes besser werden.

Es liegt auf der Hand, dass sich die Film- und Computerspielbranche brennend für die Technologie hinter Deep Fakes interessieren. Einfach weil die Technologie Eingriffe in der Postproduktion fast schon trivial machen würde. Auch digitale Modehändler experimentieren damit - etwa um ihre Kreationen von künstlich erzeugten Models präsentieren zu lassen. Andere Branchen ebenso. Was wieder einmal zeigt: Eine Technologie, die den einen als gesellschaftliches Risiko gilt, kann von anderen völlig harmlos oder sogar konstruktiv genutzt und entwickelt werden.

Bis sie ganz real aussehen, dürfte es nur noch irgendetwas zwischen sechs Monaten und einem Jahr dauern, schätzte Hao Li kürzlich in einem Interview. Li arbeitet an KI-gestützter Bewegtbildbearbeitung - und gilt manchen gar als Deep-Fakes-Pionier. Er ist einer, der rund um diese Technologie viele Rollen gleichzeitig einnimmt. Einerseits hat der 38-Jährige eine Firma gegründet, die fortschrittliche KI-Technologien für die Film- und Computerspielindustrie einsetzt. Er arbeitete daran mit, Apples Emojis mit Gesichtsausdrücken zu animieren und den verstorbenen Schauspieler Paul Walker posthum in den Hollywood-Blockbuster Furious 7 zu montieren.

Li ist aber auch außerordentlicher Professor an der University of Southern California und forscht mit daran, Deep Fakes besser erkennen zu können. Er sei überzeugt, dass es möglich wäre, Deep Fakes zu erzeugen, die weder von Menschen noch von Maschinen erkannt werden könnten, schreibt er in einer E-Mail an Zeit Online. Was übersetzt bedeuten würde: In Zukunft könnte nicht nur das bloße Auge, sondern auch die IT-Forensik bei gut gemachten Fälschungen darin versagen, das echte vom bearbeiteten, "deepgefakten" Videomaterial zu unterscheiden.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Deep Fakes: Hello, Adele - bist du's wirklich?Von Quatsch bis Putsch 
  1.  
  2. 1
  3. 2
  4. 3
  5. 4
  6. 5
  7.  


Anzeige
Top-Angebote
  1. 599€ (Bestpreis mit Alternate. Vergleichspreis ab ca. 660€)
  2. (u. a. MSI Optix MAG272CRX für 299€ + 6,99€ Versand statt ca. 450€ im Vergleich und Corsair...
  3. (u. a. The Crew 2 für 10,49€, Mount & Blade II - Bannerlord für 33,99€ und Mortal Kombat 11...

polomo 06. Dez 2019

@Hotohori Auch das war schon immer der Fall Das Problem ist, dass Videos früher als...

dark_matter 02. Dez 2019

Aus dem Artikel: "Was aber bringt es am Ende, einen Deep Fake zu erkennen? Viele Probleme...

DieTatsaechlich... 27. Nov 2019

Ein Staatsoberhaupt oder eine Regierung wurden doch bisher nocht nicht durch "Deep Fakes...

Desertdelphin 25. Nov 2019

kwt :D

unbuntu 24. Nov 2019

Halt dich fest, Fotomanipulation gab es schon wenige Jahre, nachdem Fotografie überhaupt...


Folgen Sie uns
       


Projekt Mare - DLR

Helga und Zohar sind zwei anthropomorphe Phantome, ihre Körper simulieren die Struktur des menschlichen Gewebes. DLR-Forscher wollen messen, wie sich die Strahlung auf den Körper auswirkt.

Projekt Mare - DLR Video aufrufen
    •  /