Zum Hauptinhalt Zur Navigation

App-Moderation: KI-Nackt-Apps fluten die offiziellen App-Stores

Ein Bericht des TTP zeigt: Apple und Google hosten Dutzende Apps , die KI für Deepfake -Nacktbilder nutzen – und verdienen an ihnen mit.
/ Nils Matthiesen
7 Kommentare News folgen (öffnet im neuen Fenster)
KI-Nackt-Apps fluten App-Stores (Symbolbild) (Bild: KI-generiert mit Gemini)
KI-Nackt-Apps fluten App-Stores (Symbolbild) Bild: KI-generiert mit Gemini

Die Versprechen von Apple und Google, ihre App-Stores als kuratierte und sichere Ökosysteme zu führen, geraten durch einen neuen Bericht des Tech Transparency Project(öffnet im neuen Fenster) (TTP) unter Druck. Die Analyse zeigt, dass in beiden großen App-Stores zahlreiche Anwendungen verfügbar sind, die mithilfe von künstlicher Intelligenz Personen auf Fotos digital entkleiden können. Diese sogenannten Nudify-Apps ermöglichen die Erstellung von nicht einvernehmlicher Deepfake-Pornografie auf Knopfdruck.

Hohe Umsätze durch Deepfake-Werkzeuge

Während die öffentliche Debatte Ende 2025 vor allem durch die Bildgenerierung der KI Grok auf der Plattform X befeuert wurde, verdeutlicht der TTP-Bericht eine deutlich breitere Verfügbarkeit dieser Technologie. Einfache Suchbegriffe wie "undress" oder "nudify" führen demnach in den offiziellen Stores direkt zu Programmen, die speziell für diesen Zweck entwickelt wurden.

Die Reichweite dieser Industrie ist beträchtlich: Laut den Daten des TTP wurden die identifizierten Apps insgesamt über 700 Millionen Mal heruntergeladen. Der geschätzte Umsatz beläuft sich auf rund 117 Millionen US-Dollar. Da Apple und Google bei In-App-Käufen und Abonnements üblicherweise Provisionen einbehalten, profitieren die Plattformbetreiber faktisch direkt von der Verbreitung dieser Werkzeuge.

Probleme bei der Moderation

Das Missbrauchspotenzial dieser Technologie ist erheblich. Harmlose Bilder aus sozialen Netzwerken oder Jahrbüchern können zur Belästigung oder Erpressung zweckentfremdet werden. Opferverbände warnen seit Jahren davor, dass KI-basierte Entkleidung eine Form sexualisierter Gewalt darstellt, von der Frauen und Minderjährige überproportional betroffen sind.

Sowohl Apple als auch Google verbieten in ihren Richtlinien explizit pornografische oder ausbeuterische Inhalte. Der Bericht legt jedoch nahe, dass die Durchsetzung dieser Regeln lückenhaft ist. Oftmals gleicht das Vorgehen einem Katz-und-Maus-Spiel: Werden Apps nach Beschwerden entfernt, laden Entwickler den nahezu identischen Code unter leicht verändertem Namen oder Logo erneut hoch.

Die automatisierten Prüfsysteme der Store-Betreiber scheinen mit der schnellen Evolution generativer KI-Modelle überfordert zu sein. Solange keine strikteren Regulierungen greifen oder die Unternehmen ihre Prüfprozesse grundlegend verschärfen, bleiben digitale Abbilder der Nutzer für solche Manipulationen anfällig.


Relevante Themen