• IT-Karriere:
  • Services:

Deep Fakes: Hello, Adele - bist du's wirklich?

Mit Deep Fakes wird geblödelt, gehetzt und geputscht. Bedrohen Videos, die vorgaukeln, Stars und Politiker zu zeigen, die Demokratie? Möglich, nur anders, als wir denken.

Eine Analyse von Meike Laaff/Zeit Online veröffentlicht am
Nicht Adele (Sängerin), sondern Claire Wardle (Faktencheckerin)
Nicht Adele (Sängerin), sondern Claire Wardle (Faktencheckerin) (Bild: New York Times/Collage: Golem.de)

Die britische Sängerin Adele spricht in einem Video der New York Times über Deep Fakes. Eine Technologie, die berühmte Menschen betreffe, sagt sie und wackelt bedeutungsvoll mit dem Kopf. Obwohl, Moment - nein, das ist überhaupt nicht Adele: Zwischen zwei Sätzen, binnen eines Wimpernschlags, verwandelt sich ihr Gesicht in das einer anderen Person. "Das hier ist auch ein Deep Fake", sagt nun Claire Wardle, Verifikationsexpertin und Mitgründerin des Antidesinformationsnetzwerks First Draft.

Deep Fakes heißen manipulierte Videos, mit deren Hilfe man Gesichter tauschen kann, Personen Worte in den Mund legen kann, die sie so nie gesagt haben, ihre Körper Handlungen vornehmen lassen kann, die sie so nie vollzogen haben. Es ist eine Technologie, die derzeit für hitzige Diskussionen sorgt. Denn: Videos, in denen man Menschen Aussagen unterschieben kann oder in denen sie erst die eine Person zu sein scheinen, sich dann aber als jemand ganz anderes entpuppen - das ist der Stoff, aus dem Albträume gemacht sind.

Es ist leicht, sich das Missbrauchspotenzial vorzustellen, in dieser Zeit, in der die Angst vor Desinformation ebenso groß ist wie die Dünnhäutigkeit und Hysterie, mit der in sozialen Netzwerken auf so ziemlich alles reagiert wird. Natürlich kann man die Technologie ganz harmlos einsetzen: Kaspert ein Komödiant mit Deep Fakes herum oder stellt sich heraus, dass es gar nicht die echte Adele ist, die dort in einem Video über Technik und Gesellschaft spricht, dann ist das kein Grund, in Panik zu verfallen.

Doch was, wenn Politikern mit Deep Fakes skandalöse Aussagen untergeschoben würden? Oder Polizistinnen? Was, wenn die Technologie genutzt würde, um politische Aktivisten und Journalistinnen einzuschüchtern? Wenn Privatpersonen mit derartigen Filmen gemobbt und bloßgestellt würden? Einiges davon passiert bereits heute.

Stellenmarkt
  1. Arlington Automotives, Oberboihingen
  2. Universitätsmedizin der Johannes Gutenberg-Universität Mainz, Mainz

Dass man in Texten Falschaussagen platzieren kann, ist bekannt. Auch, dass Fotos zu Desinformationszwecken verfälscht werden können. Videos aber, Tondokumente, sie galten vielen bislang als harte Belege. Deep Fakes stellen nun selbst das infrage. Können wir künftig nicht mehr unseren Augen und Ohren trauen? Diese Aussicht alarmiert viele - angeheizt auch durch alarmistische Medienberichte und -kommentierung.

Puppenspiel mit viel Rechenaufwand

Was bei Deep Fakes technisch passiert, steckt schon in ihrem Namen: Sie sind Videofälschungen, die mit Hilfe von Deep Learning entstanden sind - also mit maschinellem Lernen, das auf großen Datenmengen und künstlichen neuronalen Netzen basiert.

Mit viel Rechenaufwand erstellen die Netze, die grob gesagt ähnlich untereinander agieren wie Nervenverknüpfungen im menschlichen Gehirn, aus zwei Videoquellen ein neues künstliches Video. Und zwar, indem man zum Beispiel Originalaufnahmen des Popstars Adele mit der Aufzeichnung der Faktencheckerin Wardle kreuzt - und so lange durchrechnen lässt, bis ein Ergebnis entsteht, das so wirkt, als spräche Adele selbst, obwohl eigentlich ein Hybrid aus Adele und Wardle zu sehen ist.

So entstehen Videos, die quasi ein technisch hoch entwickeltes Puppenspiel sind, erschaffen durch künstliche Intelligenz (KI): Die Macher können die Gestik und Mimik einer Person steuern, ihnen aber auch neue Sätze in den Mund legen.

Deep Fakes müssen aber nicht unbedingt Videos sein: Mit dieser Technologie lassen sich auch Audioaufzeichnungen manipulieren - so, dass es sich anhört, als hätte eine Person einen Satz gesagt, der so nie gefallen ist.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
Was tun, wenn's trumpt? 
  1. 1
  2. 2
  3. 3
  4. 4
  5. 5
  6.  


Anzeige
Top-Angebote
  1. (heute Logitech G635 Lyghtsync Gaming Headset für 75,00€ statt 132,99€ im Vergleich)
  2. (aktuell u. a. Asus XG248Q LED-Monitor 389,00€ (Bestpreis!), Emtec SSD 120 GB 15,79€, Xiaomi...
  3. (u.a. Samsung Galaxy Tab A für 195,00€, Huawei MediaPad M5 Lite für 189,00€, Lenovo Tab E10...

polomo 06. Dez 2019 / Themenstart

@Hotohori Auch das war schon immer der Fall Das Problem ist, dass Videos früher als...

dark_matter 02. Dez 2019 / Themenstart

Aus dem Artikel: "Was aber bringt es am Ende, einen Deep Fake zu erkennen? Viele Probleme...

DieTatsaechlich... 27. Nov 2019 / Themenstart

Ein Staatsoberhaupt oder eine Regierung wurden doch bisher nocht nicht durch "Deep Fakes...

unbuntu 24. Nov 2019 / Themenstart

Halt dich fest, Fotomanipulation gab es schon wenige Jahre, nachdem Fotografie überhaupt...

Kommentieren


Folgen Sie uns
       


Golem.de hackt Wi-Fi-Kameras per Deauth

WLAN-Überwachungskameras lassen sich ganz einfach ausknipsen - Golem.de zeigt, wie.

Golem.de hackt Wi-Fi-Kameras per Deauth Video aufrufen
Videoüberwachung: Kameras sind überall, aber nicht überall erlaubt
Videoüberwachung
Kameras sind überall, aber nicht überall erlaubt

Dass Überwachungskameras nicht legal eingesetzt werden, ist keine Seltenheit. Ob aus Nichtwissen oder mit Absicht: Werden Privatsphäre oder Datenschutz verletzt, gehören die Kameras weg. Doch dazu müssen sie erst mal entdeckt, als legal oder illegal ausgemacht und gemeldet werden.
Von Harald Büring

  1. Nach Attentat Datenschutzbeauftragter kritisiert Hintertüren in Messengern
  2. Australien IT-Sicherheitskonferenz Cybercon lädt Sprecher aus
  3. Spionagesoftware Staatsanwaltschaft ermittelt nach Anzeige gegen Finfisher

Echo Dot mit Uhr und Nest Mini im Test: Amazon hängt Google ab
Echo Dot mit Uhr und Nest Mini im Test
Amazon hängt Google ab

Amazon und Google haben ihre kompakten smarten Lautsprecher überarbeitet. Wir haben den Nest Mini mit dem neuen Echo Dot mit Uhr verglichen. Google hat es sichtlich schwer, konkurrenzfähig zu Amazon zu bleiben.
Ein Test von Ingo Pakalski

  1. Digitale Assistenten Amazon verkauft dreimal mehr smarte Lautsprecher als Google
  2. Googles Hardware-Chef Osterloh weist Besuch auf smarte Lautsprecher hin
  3. Telekom Smart Speaker im Test Der smarte Lautsprecher, der mit zwei Zungen spricht

Apex Pro im Test: Tastatur für glückliche Gamer und Vielschreiber
Apex Pro im Test
Tastatur für glückliche Gamer und Vielschreiber

Steelseries bietet seine mechanische Tastatur Apex 7 auch als Pro-Modell mit besonderen Switches an: Zum Einsatz kommen sogenannte Hall-Effekt-Schalter, die ohne mechanische Kontakte auskommen. Besonders praktisch ist der einstellbare Auslösepunkt.
Ein Test von Tobias Költzsch

  1. Bluetooth und Ergonomic Keyboard Microsoft-Tastaturen kommen nach Deutschland
  2. Peripheriegeräte Microsofts neue Tastaturen haben Office- und Emoji-Tasten
  3. G Pro X Gaming Keyboard Logitech lässt E-Sportler auf austauschbare Tasten tippen

    •  /