Putschversuch dank Deep Fake?

Es gibt aber auch bereits Beispiele dafür, was Deep Fakes tatsächlich in der Politik lostreten könnten. Allerdings anders, als viele sich vielleicht vorstellen würden: In Gabun etwa tauchte im Dezember 2018 auf Facebook ein Video auf, in dem Präsident Ali Bongo eine Ansprache hielt. Monatelang war er zuvor nicht mehr in der Öffentlichkeit aufgetreten, galt vielen als schwer krank, vielleicht sogar tot. Sein politischer Gegner bezeichnete die Aufnahmen als Deep Fake - und das Video wurde Auslöser eines Putschversuchs durch das Militär von Gabun in der darauffolgenden Woche. Interessanterweise passierte all das, ohne dass eine forensische Analyse tatsächlich belegen konnte, dass es sich bei dem Video um einen Deep Fake handelte: Allein die Vorstellung, dass es sich um eine Fälschung handeln könne, genügte, um politische Konsequenzen auszulösen.

Stellenmarkt
  1. CRM Application Manager (gn)
    Getriebebau NORD GmbH & Co. KG, Bargteheide
  2. Business Line Director (m/f/d) Industrial IoT
    via eTec Consult GmbH, Raum Malmö/Göteborg (Schweden)
Detailsuche

Tatsächliche Ereignisse, Lüge oder auch nur die Annahme einer Lüge, all das scheint angesichts von Deep Fakes zu verwischen. Die US-Juristen Danielle Citron und Bobby Chesney veröffentlichten einen Bericht, in dem sie vor katastrophalen Konsequenzen warnten, die Deep Fakes in Gesellschaften entfalten könnten. Vor allem dort, wo sich politische Lager ohnehin bereits misstrauisch beäugen. Citron sagte der britischen Zeitung The Guardian, sie halte es für möglich, dass zeitlich geschickt platzierte Deep Fakes demokratische Prozesse beeinträchtigen könnten - indem sie zum Beispiel in einem Klima gesellschaftlicher Spaltung Vertrauen erodieren, Diskurse entzweien oder den Ausgang einer knappen Wahl in letzter Minute mit einer Fälschung drehen.

Lügen geht auch ohne künstliche Intelligenz

Claire Wardle hingegen, die Verifikationsexpertin von First Draft, nennt die Panik vor Deep Fakes in dem Video, zu dessen Beginn sie als Adele zu sehen war, "aufgeblasen". Sie leugne nicht, dass die Technologie besser und billiger werde. Doch sie sieht einen "alarmistischen Hype" um Deep Fakes - und bezeichnet den als "möglicherweise gefährlicher als die Technologie selbst".

"Man braucht keine Deep Fakes, keine künstliche Intelligenz, um Emotionen zu manipulieren oder Desinformationen zu verbreiten", sagt sie. Und meint damit: Wer lügen will, dem reichen Photoshop, eine stinknormale Videobearbeitungssoftware oder schlicht die Möglichkeit, ein existierendes Foto mit einer irreführenden Bildunterschrift aus dem Kontext zu reißen. Oberflächliche Manipulation nennt Wardle das, "Shallow Fakes". Medienwissenschaftler und IT-Sicherheitsexperten stimmen zu, nutzen den Begriff "Cheap Fakes", billige Fälschungen.

Golem Akademie
  1. Webentwicklung mit React and Typescript: virtueller Fünf-Halbtage-Workshop
    6.–10. Dezember 2021, Virtuell
  2. C++ Programmierung Basics: virtueller Fünf-Tage-Workshop
    15.–19. November 2021, virtuell
Weitere IT-Trainings

Wenn das Verbreiten von Lügen und Desinformation im Netz so einfach geht - warum dann mühevoll Deep Fakes basteln?

Hao Li, Deep-Fakes-Pionier, schreibt Zeit Online: "Ich glaube nicht, dass Technologien rund um Deep Fakes das Ende der Welt bedeuten." Genauso wie die Bildbearbeitungssoftware Photoshop ihr noch kein Ende bereitet habe - obwohl damit auch jeder Fotos manipulieren kann, um sie anschließend im Netz zu verbreiten.

Am Ende fürchten Claire Wardle und viele andere weniger, dass unentdeckte Deep Fakes für Chaos sorgen. Für viel größer halten sie die Gefahr, dass diese technisch anspruchsvoll manipulierten Videos eine Umgebung schaffen könnten, in der Zuschauer das Gefühl bekommen, überhaupt nichts mehr glauben zu können. Vor diesem indirekten Effekt auf die Demokratie warnen auch die Juristen Citron und Chesney - die "Dividende des Lügners" nennen sie ihn. Ein Kommunikationsmuster, das Leute wie Donald Trump groß gemacht haben. Man muss gar nicht selbst glaubwürdig sein. Menschen müssen gar nicht glauben, was Trump sagt. Es genügt, die Glaubwürdigkeit seiner Gegner und ihrer Quellen infrage zu stellen. Denn: Wenn ohnehin alles gelogen sein könnte, kann man auch eine Tatsache als Lüge diskreditieren.

Andere Menschen aus der Technologie- und Verifikationsszene warnen außerdem, dass Deep Fakes weniger die Großen und Mächtigen bedrohen als vielmehr unbekanntere Menschen und Privatpersonen, denen weniger Ressourcen zur Verfügung stehen, um sich gegen potenzielle Verleumdungen durch Deep Fakes zu wehren. Lokalpolitiker zum Beispiel. Frauen, deren Ex-Freunde sich mit pornografisch herabwürdigenden Fälschungen rächen wollen. Schüler, die Opfer von Mobbing werden. Leute, denen die Ressourcen fehlen, die große Bühne, um Diskreditierungen ihrer Person öffentlich auszuräumen.

Wettrüsten zwischen Fakern und Checkern

Und dann gibt es die, die tagtäglich Fälschung von Original unterscheiden müssen. Die Nachrichtenagentur Reuters hat begonnen, sich für eine Zukunft mit Deep-Fake-Videos zu wappnen. Reuters stellte seine Faktenchecker auf die Probe: Erkennen sie tatsächlich ein Deep-Fake-Video, wenn sie eines vor sich haben? Um das zu überprüfen, erstellte die Agentur einen Deep Fake, in dem eine Nachrichtensprecherin auf Französisch eine Meldung vortrug.

Die gute Nachricht: Den Faktencheckern fiel auf, dass etwas mit diesem Video nicht stimmte. Die schlechte: Was genau falsch war, konnten sie nicht benennen, es blieb bei einem "unbehaglichen Gefühl", berichtet Hazel Baker, Chefin der Abteilung zur Prüfung von nutzergenerierten Inhalten bei Reuters. Bedeutet: Aufwendig gemachte Deep-Fake-Fälschungen verwirren schon heute selbst Profis.

Wie also hebelt man das aus? Es klingt erst einmal naheliegend, zur Bekämpfung eines technischen Problems auf Technik zu setzen. Forensische Methoden zu entwickeln, die Deep Fakes von authentischem Bildmaterial unterscheiden können.

Hany Farid, Informatikprofessor an der Universität Berkeley, ist einer der Forscher, die mit Hochdruck daran arbeiten. Licht und Schatten, Winkel und Unschärfen der Gesichtszüge, Kleidung und Haare und wie sich der Gesichtsteint subtil verändert, wenn Blut durch Gefäße gepumpt wird - all das kann den Forensikern Aufschluss über die Echtheit eines Videos geben.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Von Quatsch bis PutschFälschen, lernen, detektieren 
  1.  
  2. 1
  3. 2
  4. 3
  5. 4
  6. 5
  7.  


polomo 06. Dez 2019

@Hotohori Auch das war schon immer der Fall Das Problem ist, dass Videos früher als...

dark_matter 02. Dez 2019

Aus dem Artikel: "Was aber bringt es am Ende, einen Deep Fake zu erkennen? Viele Probleme...

DieTatsaechlich... 27. Nov 2019

Ein Staatsoberhaupt oder eine Regierung wurden doch bisher nocht nicht durch "Deep Fakes...

unbuntu 24. Nov 2019

Halt dich fest, Fotomanipulation gab es schon wenige Jahre, nachdem Fotografie überhaupt...



Aktuell auf der Startseite von Golem.de
Pixel 6 und Android 12
Googles halbgare Android-Update-Schummelei

Seit Jahren arbeitet Google daran, endlich so lange Updates zu liefern wie die Konkurrenz. Mit dem Pixel 6 und Android 12 enttäuscht der Konzern aber.
Ein IMHO von Sebastian Grüner

Pixel 6 und Android 12: Googles halbgare Android-Update-Schummelei
Artikel
  1. Impfnachweise: Covid-Zertifikat für Adolf Hitler aufgetaucht
    Impfnachweise
    Covid-Zertifikat für Adolf Hitler aufgetaucht

    Im Internet sind gefälschte, aber korrekt signierte QR-Codes mit Covid-Impfnachweisen aufgetaucht.

  2. Geheimdienstchefs im Bundestag: Nachrichtendienste wollen weiter Spionagetools zukaufen
    Geheimdienstchefs im Bundestag
    Nachrichtendienste wollen weiter Spionagetools zukaufen

    Von der Debatte um Pegasus zeigen sich die deutschen Nachrichtendienste unbeeindruckt. Der Zukauf von Trojanern und Analysesoftware sei unverzichtbar, heißt es.
    Ein Bericht von Friedhelm Greis

  3. Apple: Notch des Macbook Pro legt sich über Inhalte
    Apple
    Notch des Macbook Pro legt sich über Inhalte

    Erste Käufer des neuen Macbook Pro berichten von einer schlechten Software-Anpassung. So legt sich die Notch über Menüs oder den Mauszeiger.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • Samsung 4K-Monitore & TVs günstiger (u. a. 50" QLED 2021 749€) • Seagate Exos 18TB 319€ • Alternate (u. a. Asus B550-Plus Mainboard 118€) • Switch OLED 369,99€ • Neues Xiaomi 11T 256GB 549,90€ • Ergotron LX Desk Mount Monitorhalterung 124,90€ • Speicherprodukte von Sandisk & WD [Werbung]
    •  /