Zum Hauptinhalt Zur Navigation

ChatGPT und Gemini: Chatbots erstellen Bikini-Deepfakes von bekleideten Frauen

Nutzer manipulieren ChatGPT und Google Gemini systematisch, um aus Fotos vollständig bekleideter Frauen freizügige Bikini-Bilder zu generieren.
/ Andreas Donath
9 Kommentare News folgen (öffnet im neuen Fenster)
Kein Deepfake, aber so etwas kann KI von bekleideten Frauen erstellen. (Bild: Pexels)
Kein Deepfake, aber so etwas kann KI von bekleideten Frauen erstellen. Bild: Pexels

Google Gemini und OpenAIs ChatGPT sind zur Zielscheibe dieses Missbrauchs geworden. Ein inzwischen gelöschter Reddit-Thread zeigte laut Wired(öffnet im neuen Fenster) , wie Nutzer Tipps zur Erstellung freizügiger KI-Bilder ausgetauscht hatten. In einem Fall forderte jemand, den traditionellen indischen Sari einer Frau durch einen Bikini zu ersetzen – ein anderer Nutzer lieferte das manipulierte Deepfake-Bild.

Reddit entfernte die Inhalte nach entsprechenden Hinweisen. Das Sicherheitsteam der Plattform verwies gegenüber Wired auf Verstöße gegen Regeln zu nicht-einvernehmlichen intimen Medien. Das betreffende Subreddit r/ChatGPTJailbreak hatte über 200.000 Mitglieder angesammelt, bevor Reddit es komplett sperrte.

Das Problem geht über Einzelfälle hinaus. Tests von Golem bestätigten, dass bereits einfache Prompts in natürlicher Sprache ausreichen, um Bilder bekleideter Frauen mit diesen Mainstream-Chatbots in Bikini-Deepfakes zu verwandeln, indem man der KI versicherte, dass dies ethisch vertretbar sei, um die Schutzmechanismen auszuhebeln.

Neue Modelle verschärfen das Problem

Google veröffentlichte im November Nano Banana Pro, ein Bildmodell, das bestehende Fotos modifizieren und realistische Bilder erstellen kann. OpenAI folgte letzte Woche mit ChatGPT Images. Je ausgefeilter diese Tools werden, desto realistischer werden auch die Deepfakes, wenn Nutzer die Sicherheitsvorkehrungen umgehen.

Beide Unternehmen betonen ihre Richtlinien gegen missbräuchliche Nutzung. Ein Google-Sprecher erklärte Wired, das Unternehmen habe klare Regeln gegen die Erstellung sexuell expliziter Inhalte und arbeite kontinuierlich daran, diese in den Tools besser umzusetzen. OpenAI räumte ein, einige Beschränkungen bei der Darstellung erwachsener Körper in nicht-sexuellem Kontext gelockert zu haben, verbietet aber weiterhin die Veränderung von Personen ohne deren Einwilligung.

Die Praktik steht im Zusammenhang mit sogenannten Nudify-Websites, auf denen Nutzer echte Fotos hochladen und KI-generierte Nacktversionen anfordern können. Diese Seiten verzeichnen laut verfügbaren Daten Millionen von Besuchern.


Relevante Themen