KI: Europol warnt vor Deepfake-Nutzung durch Kriminelle
Kriminelle können Deepfakes auf vielfältige Art und Weise nutzen und die Behörden austricksen, meint Europol.

Die europäische Strafverfolgungsbehörde Europol hat vor der Nutzung der Deepfake-Technologie durch die organisierte Kriminalität gewarnt. Mit Hilfe künstlicher Intelligenz erstellte Videos und Bilder könnten von Kriminellen zu verschiedenen Zwecken genutzt und auch zur Behinderung der Arbeit von Polizei und Justiz eingesetzt werden, teilte Europol am 28. April 2022 in Den Haag mit.
Deepfakes könnten für Erpressungs- und Betrugsdelikte, Dokumentenfälschungen, Finanzmarktmanipulationen und Einflussnahme auf Firmen genutzt werden. Desinformationskampagnen und eine Beeinflussung der öffentlichen Meinung könnten über Deepfakes betrieben werden, bis hin zur Anstachelung zu politischen und gesellschaftlichen Unruhen.
Außerdem könnten versierte Banden die komplizierte Deepfake-Technologie anderen für kriminelle Vorhaben als Service anbieten. Die Justiz könne mit vermeintlichem Beweismaterial, das aus manipulierten Videos oder Bildern besteht, getäuscht werden.
Deepfakes sind mit Hilfe künstlicher Intelligenz (KI) erstellte Videos, Bilder oder auch Audio-Dokumente, die authentisch wirken sollen, es aber nicht sind. Der KI-Einsatz sorgt dafür, dass die Stimme echt klingt und gesprochene Sprache und Mimik zueinander passen.
Viele kriminielle Anwendungsmöglichkeiten von Deepfakes
Für einen Erpressungsversuch etwa könnten die Handelnden in einem Pornovideo mit dem Gesicht einer unbeteiligten Person versehen werden, teilte Europol mit. Über einen Bot auf Telegram wurde bereits die Generierung von Nacktfotos von Frauen gegen Geld angeboten.
Ein Fremder könne am Telefon mit der Technik wie der bekannte Firmenchef klingen und einen Mitarbeiter zu einer Überweisung veranlassen, schreibt Europol. Einen solchen CEO-Fraud-Fall, bei dem 220.000 Euro erbeutet wurden, soll es bereits gegeben haben. Die Arbeit im Homeoffice seit der Corona-Krise schaffe verstärkt Ansatzpunkte für den betrügerischen Einsatz von Deepfakes. Selbst Passbilder könnten derart manipuliert werden, dass bei einer Kontrolle nicht auffalle, dass das Gesicht einer anderen Person in das Foto des Passinhabers hineingearbeitet worden ist.
Der zunehmenden Entwicklung und Nutzung der Deepfake-Technologie müssten Polizeibehörden Prävention und automatisierte Programme zum Erkennen von Fälschungen entgegenstellen, riet Europol. Auch die Gesetzgebung müsse mit den technischen Entwicklungen Schritt halten.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Für Arbeitgeber stets ein deep Fake. ;)
Oder umgekehrt, bei jedem Skandalvideo erklärt man, dass es sich um Deepfakes handelt und...
"Beeinflussung der öffentlichen Meinung könnten über Deepfakes betrieben werden, bis hin...