Original-URL des Artikels: https://www.golem.de/news/deepnude-telegram-bot-erstellt-nacktfotos-von-frauen-2010-151679.html    Veröffentlicht: 22.10.2020 17:36    Kurz-URL: https://glm.io/151679

Deepnude

Telegram-Bot erstellt Nacktfotos von Frauen

Auf Telegram lassen sich vergleichsweise einfach Nacktfotos von Frauen erzeugen. Die Opfer stammen meist aus dem Umfeld der Täter.

Die Sicherheitsfirma Sensity hat ein Deepfake-Ökosystem auf der Messenger-Plattform Telegram entdeckt, das auf Anfrage gefälschte Nacktbilder von Frauen erzeugt. Über 100.000 solcher künstlichen Fotos sollen demnach bis Ende Juli in den entsprechenden Telegram-Gruppen veröffentlicht worden sein. Die Dunkelziffer dürfte deutlich höher sein.

Demnach nimmt ein Telegram-Bot die Bilder entgegen und erzeugt vermutlich über die Software Deepnude die gefälschten Nacktbilder auf externen Servern. Der Bot funktioniert nur mit Bildern von Frauen. Die so erzeugten Bilder werden über Telegram ausgeliefert und sind kostenlos.

Allerdings enthielten sie ein Wasserzeichen oder entkleideten die Opfer teils nicht komplett, schreibt Sensity. Um ein Wasserzeichen zu entfernen, die Bearbeitung zu beschleunigen oder teils, um die Opfer komplett zu entkleiden, muss hingegen bezahlt werden.

Das Deepnude-Problem wird größer

Laut einer Umfrage unter den Nutzern in einem der Hauptkanäle für den Austausch von Deepnude-Bildern werden die Bots vornehmlich (63 Prozent) dazu genutzt, Nacktfotos von Frauen aus dem Bekanntenkreis zu generieren. Die Opfer dürften in den seltensten Fällen wissen, dass künstlich erzeugte Nacktbilder von ihnen im Internet getauscht oder veröffentlicht werden. Bei einem kleinen Teil der Bilder, die in den Gruppen getauscht werden, soll es sich sogar um augenscheinlich Minderjährige gehandelt haben.



Durch den Telegram-Bot wird die Nutzung der der dahinterstehende Deepfake- beziehungsweise Deepnude-Technik deutlich vereinfacht, was die Anzahl der so generierten Bilder schnell erhöhen dürfte. Diese sind zwar teilweise leicht als Fake zu identifizieren, manchmal sehen sie jedoch täuschend echt aus. Für die Opfer können solche Bilder existenzbedrohend sein. So können die Bilder von Tätern zur Belästigung, Erpressung oder zur öffentlichen Bloßstellung genutzt werden.

 (mtr)


Verwandte Artikel:
Nacktheit durch KI: "Die Welt ist noch nicht bereit für Deepnude"   
(28.06.2019, https://glm.io/142215 )
Deep Fake: MIT lässt Nixon Rede zu Apollo-11-Fehlschlag halten   
(21.07.2020, https://glm.io/149787 )
Messenger: Telegram löschte Nachrichten nicht zuverlässig   
(11.09.2019, https://glm.io/143797 )
"10 Prozent Idioten": Piratenpartei klar gegen Diskriminierung   
(09.04.2012, https://glm.io/91031 )
Verschwörungsfantasien: Justizministerin will "Blödsinn nicht verbieten"   
(10.09.2020, https://glm.io/150789 )

© 1997–2021 Golem.de, https://www.golem.de/