• IT-Karriere:
  • Services:

Putschversuch dank Deep Fake?

Es gibt aber auch bereits Beispiele dafür, was Deep Fakes tatsächlich in der Politik lostreten könnten. Allerdings anders, als viele sich vielleicht vorstellen würden: In Gabun etwa tauchte im Dezember 2018 auf Facebook ein Video auf, in dem Präsident Ali Bongo eine Ansprache hielt. Monatelang war er zuvor nicht mehr in der Öffentlichkeit aufgetreten, galt vielen als schwer krank, vielleicht sogar tot. Sein politischer Gegner bezeichnete die Aufnahmen als Deep Fake - und das Video wurde Auslöser eines Putschversuchs durch das Militär von Gabun in der darauffolgenden Woche. Interessanterweise passierte all das, ohne dass eine forensische Analyse tatsächlich belegen konnte, dass es sich bei dem Video um einen Deep Fake handelte: Allein die Vorstellung, dass es sich um eine Fälschung handeln könne, genügte, um politische Konsequenzen auszulösen.

Stellenmarkt
  1. Universität Hamburg, Hamburg
  2. über duerenhoff GmbH, Frankfurt

Tatsächliche Ereignisse, Lüge oder auch nur die Annahme einer Lüge, all das scheint angesichts von Deep Fakes zu verwischen. Die US-Juristen Danielle Citron und Bobby Chesney veröffentlichten einen Bericht, in dem sie vor katastrophalen Konsequenzen warnten, die Deep Fakes in Gesellschaften entfalten könnten. Vor allem dort, wo sich politische Lager ohnehin bereits misstrauisch beäugen. Citron sagte der britischen Zeitung The Guardian, sie halte es für möglich, dass zeitlich geschickt platzierte Deep Fakes demokratische Prozesse beeinträchtigen könnten - indem sie zum Beispiel in einem Klima gesellschaftlicher Spaltung Vertrauen erodieren, Diskurse entzweien oder den Ausgang einer knappen Wahl in letzter Minute mit einer Fälschung drehen.

Lügen geht auch ohne künstliche Intelligenz

Claire Wardle hingegen, die Verifikationsexpertin von First Draft, nennt die Panik vor Deep Fakes in dem Video, zu dessen Beginn sie als Adele zu sehen war, "aufgeblasen". Sie leugne nicht, dass die Technologie besser und billiger werde. Doch sie sieht einen "alarmistischen Hype" um Deep Fakes - und bezeichnet den als "möglicherweise gefährlicher als die Technologie selbst".

"Man braucht keine Deep Fakes, keine künstliche Intelligenz, um Emotionen zu manipulieren oder Desinformationen zu verbreiten", sagt sie. Und meint damit: Wer lügen will, dem reichen Photoshop, eine stinknormale Videobearbeitungssoftware oder schlicht die Möglichkeit, ein existierendes Foto mit einer irreführenden Bildunterschrift aus dem Kontext zu reißen. Oberflächliche Manipulation nennt Wardle das, "Shallow Fakes". Medienwissenschaftler und IT-Sicherheitsexperten stimmen zu, nutzen den Begriff "Cheap Fakes", billige Fälschungen.

Wenn das Verbreiten von Lügen und Desinformation im Netz so einfach geht - warum dann mühevoll Deep Fakes basteln?

Hao Li, Deep-Fakes-Pionier, schreibt Zeit Online: "Ich glaube nicht, dass Technologien rund um Deep Fakes das Ende der Welt bedeuten." Genauso wie die Bildbearbeitungssoftware Photoshop ihr noch kein Ende bereitet habe - obwohl damit auch jeder Fotos manipulieren kann, um sie anschließend im Netz zu verbreiten.

Am Ende fürchten Claire Wardle und viele andere weniger, dass unentdeckte Deep Fakes für Chaos sorgen. Für viel größer halten sie die Gefahr, dass diese technisch anspruchsvoll manipulierten Videos eine Umgebung schaffen könnten, in der Zuschauer das Gefühl bekommen, überhaupt nichts mehr glauben zu können. Vor diesem indirekten Effekt auf die Demokratie warnen auch die Juristen Citron und Chesney - die "Dividende des Lügners" nennen sie ihn. Ein Kommunikationsmuster, das Leute wie Donald Trump groß gemacht haben. Man muss gar nicht selbst glaubwürdig sein. Menschen müssen gar nicht glauben, was Trump sagt. Es genügt, die Glaubwürdigkeit seiner Gegner und ihrer Quellen infrage zu stellen. Denn: Wenn ohnehin alles gelogen sein könnte, kann man auch eine Tatsache als Lüge diskreditieren.

Andere Menschen aus der Technologie- und Verifikationsszene warnen außerdem, dass Deep Fakes weniger die Großen und Mächtigen bedrohen als vielmehr unbekanntere Menschen und Privatpersonen, denen weniger Ressourcen zur Verfügung stehen, um sich gegen potenzielle Verleumdungen durch Deep Fakes zu wehren. Lokalpolitiker zum Beispiel. Frauen, deren Ex-Freunde sich mit pornografisch herabwürdigenden Fälschungen rächen wollen. Schüler, die Opfer von Mobbing werden. Leute, denen die Ressourcen fehlen, die große Bühne, um Diskreditierungen ihrer Person öffentlich auszuräumen.

Wettrüsten zwischen Fakern und Checkern

Und dann gibt es die, die tagtäglich Fälschung von Original unterscheiden müssen. Die Nachrichtenagentur Reuters hat begonnen, sich für eine Zukunft mit Deep-Fake-Videos zu wappnen. Reuters stellte seine Faktenchecker auf die Probe: Erkennen sie tatsächlich ein Deep-Fake-Video, wenn sie eines vor sich haben? Um das zu überprüfen, erstellte die Agentur einen Deep Fake, in dem eine Nachrichtensprecherin auf Französisch eine Meldung vortrug.

Die gute Nachricht: Den Faktencheckern fiel auf, dass etwas mit diesem Video nicht stimmte. Die schlechte: Was genau falsch war, konnten sie nicht benennen, es blieb bei einem "unbehaglichen Gefühl", berichtet Hazel Baker, Chefin der Abteilung zur Prüfung von nutzergenerierten Inhalten bei Reuters. Bedeutet: Aufwendig gemachte Deep-Fake-Fälschungen verwirren schon heute selbst Profis.

Wie also hebelt man das aus? Es klingt erst einmal naheliegend, zur Bekämpfung eines technischen Problems auf Technik zu setzen. Forensische Methoden zu entwickeln, die Deep Fakes von authentischem Bildmaterial unterscheiden können.

Hany Farid, Informatikprofessor an der Universität Berkeley, ist einer der Forscher, die mit Hochdruck daran arbeiten. Licht und Schatten, Winkel und Unschärfen der Gesichtszüge, Kleidung und Haare und wie sich der Gesichtsteint subtil verändert, wenn Blut durch Gefäße gepumpt wird - all das kann den Forensikern Aufschluss über die Echtheit eines Videos geben.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Von Quatsch bis PutschFälschen, lernen, detektieren 
  1.  
  2. 1
  3. 2
  4. 3
  5. 4
  6. 5
  7.  


Anzeige
Top-Angebote
  1. (u. a. We Are The Dwarves für 0,75€, Dark Souls: Remastered für 13,99€, Anno 2205 Ultimate...
  2. (u. a. Black+Decker Akku-Schlagbohrschrauber BDCHD18KBST, 18Volt für 99,90€, Hazet...
  3. 29,99€ + 4,99€ Versand oder kostenlose Marktabholung (Bestpreis mit Amazon)

polomo 06. Dez 2019

@Hotohori Auch das war schon immer der Fall Das Problem ist, dass Videos früher als...

dark_matter 02. Dez 2019

Aus dem Artikel: "Was aber bringt es am Ende, einen Deep Fake zu erkennen? Viele Probleme...

DieTatsaechlich... 27. Nov 2019

Ein Staatsoberhaupt oder eine Regierung wurden doch bisher nocht nicht durch "Deep Fakes...

Desertdelphin 25. Nov 2019

kwt :D

unbuntu 24. Nov 2019

Halt dich fest, Fotomanipulation gab es schon wenige Jahre, nachdem Fotografie überhaupt...


Folgen Sie uns
       


IBM - von der Lochkarte zum Quantencomputer (Golem Geschichte)

Golem.de erzählt die über 100-jährige Geschichte von Big Blue im Video.

IBM - von der Lochkarte zum Quantencomputer (Golem Geschichte) Video aufrufen
    •  /