Am I in Porn & Pimeyes: Warum Gesichtserkennung gegen Rachepornos bedenklich ist

Ausgerechnet mit Gesichtserkennung will Am I in Porn gegen Rachepornos vorgehen und mehr Privatsphäre schaffen. Die Technik dafür dürfte rechtswidrig sein.

Eine Recherche von veröffentlicht am
Gesichtserkennung für die gute Sache
Gesichtserkennung für die gute Sache (Bild: Pixabay/Montage: Golem.de)

"Wir wollen mit Gesichtserkennung den Leuten die Kontrolle zurückgeben." Was im ersten Moment wie ein schlechter Scherz klingt, meint Lukas Henseleit ernst. Er ist einer der drei Gründer von Am I in Porn, einer Plattform, die mit Gesichtserkennung gegen Rachepornos und non-consensual Porn vorgehen möchte. Ein riesiges Problem, das Existenzen zerstöre, erklärt Henseleit. Eine Freundin sei konkret betroffen gewesen.

Inhalt:
  1. Am I in Porn & Pimeyes: Warum Gesichtserkennung gegen Rachepornos bedenklich ist
  2. Das ganze Internet in biometrischen Datenbanken

Daher haben sich die drei Gründer das Konzept mit der Gesichtserkennung überlegt. Noch steht das Projekt ganz am Anfang, doch den Gründern schwebt eine umfassende Kontrollinstanz vor, die die Menschenwürde schützen soll. Allerdings lässt sich die Technik leicht missbrauchen und dürfte schnell Begehrlichkeiten wecken. Denn die Grundlage von Am I in Porn ist die gleiche wie bei den Gesichtserkennungsdiensten Pimeyes und Clearview AI - eine umfangreiche Gesichtsdatenbank. Doch eine solche hält Stefan Brink, der Landesdatenschutzbeauftragte von Baden-Württemberg, schlicht für rechtswidrig.

Mit einem Gesichtsbild auf Pornhub suchen

Wer die Webseite Amiinporn.org besucht, kann dort ein Bild von sich knipsen oder hochladen und zwei Euro per Paypal bezahlen. Anschließend wird das Foto biometrisch vermessen und in den Videos auf Pornhub nach dem entsprechenden Gesicht gesucht. Nach einigen Sekunden präsentiert die Webseite ihre Funde mit einer Prozentzahl der wahrscheinlichen Übereinstimmung. Wurde ein Video mit der betroffenen Person ohne deren Einverständnis veröffentlicht, hilft Am I in Porn dabei, das Video löschen zu lassen.

Doch so richtig funktioniert die Suche nicht: Zu Testzwecken haben wir ein Bild einer bekannten Pornodarstellerin auf Am I in Porn hochgeladen und erhalten kurze Zeit später unsere Ergebnisse. Ein Treffer mit 99 prozentiger Wahrscheinlichkeit und 29 False-Positives mit geringeren Wahrscheinlichkeiten, also Videos in denen die Darstellerin nicht mitspielt.

Allein die Suche nach dem Namen der Darstellerin auf Pornhub liefert jedoch 1.185 Ergebnisse. Eine deutliche Diskrepanz. Obendrein gibt es das entdeckte Video nicht mehr auf der Plattform, es wurde bereits vor unserer Suchanfrage gelöscht. Das liege daran, dass noch längst nicht alle Videos auf Pornhub ausgewertet wurden, erklärt Yannick Schuchmann, der für die Technik bei Am I in Porn zuständig ist.

Bisher seien acht Millionen Videos auf Pornhub mit der Gesichtserkennungssoftware Openface ausgewertet worden. Ihre Funde speichert Am I in Porn in einer Datenbank, mit der das biometrisch vermessene Gesicht der Pornodarstellerin abgeglichen wurde. Das erklärt auch die veralteten Links. "Einmal monatlich veröffentlicht Pornhub einen Dump, mit dem arbeiten wir", sagt Schuchmann. Tagesaktuell sei die Datenbank dementsprechend nicht. Auch andere Plattformen würden bisher nicht ausgewertet.

Am I in Porn ist eine Dual-Use-Technologie

Das größere Problem ist jedoch, dass ohne weiteres Bilder von anderen Personen hochgeladen und damit geprüft werden kann, ob die entsprechende Person in einem Clip auf Pornhub auftaucht. Diese treten bewusst oft mit einem Künstlernamen auf, um nicht mit ihrer realen Identität in Verbindung gebracht zu werden - doch gegen Gesichtserkennung helfen Künstlernamen nicht.

Die Informationen können ähnlich schlimme Folgen wie ein Racheporno haben. Erst kürzlich hatte der Entertainer Oliver Pocher eine Influencerin als Sexarbeiterin geoutet und Ausschnitte aus einem weitgehend unbekannten, recht freizügigen Video einer anderen Instagramerin veröffentlicht, um diese bloßzustellen. Diese mussten anschließend Hasskommentare und Drohungen erdulden, ganz zu schweigen von den möglichen Folgen in ihrem privaten Umfeld. Die Videos könnten sich auch mit Am I in Porn herausfinden lassen, obwohl die Plattform eigentlich das Gegenteil bewirken möchte.

Verifizierungssystem und Digital Dignity

"Mit der Problematik haben wir uns lange beschäftigt", sagt Henseleit. Dabei seien sie zu dem Schluss gekommen, dass sie mit der Technik deutlich mehr Menschen helfen als schaden, da die Chance, bei missbräuchlicher Nutzung Matches zu finden, ungleich geringer sei. Nach einer Studie zweier Universitäten in Australien, sei jede fünfte Person Opfer von explizitem Material im Netz. Denen wolle man helfen, die Inhalte zu finden.

Das Abfragen mit den Bildern anderer Personen verstoße gegen die Geschäftsbedingungen, sagt Schuchmann. Um diese durchzusetzen, werde bereits an einem Verifizierungssystem gearbeitet, das in den nächsten Wochen veröffentlicht werden soll. Dieses solle ähnlich wie bei Dating-Apps funktionieren, bei denen ein Code vor sich in die Kamera gehalten werden müsse, erklärt Schuchmann.

Als ersten Schritt in die Richtung hat Am I in Porn das direkte Hochladen der Bilder während der Recherche zu diesem Artikel deaktiviert. Einen wirklichen Schutz bietet dies jedoch nicht: Es reicht, ein Foto einer anderen Person auf dem Smartphone zu öffnen und vor die Kamera zu halten.

"Würde es sich tatsächlich um ein Tool handeln, das den betroffenen Personen den Schutz ihrer Daten ermöglichen soll, so müsste es entsprechend ausgestaltet und gegen Missbrauch durch andere geschützt sein", kritisiert Brink die fehlende Verifizierung auf Nachfrage von Golem.de.

Doch eigentlich geht es den drei Gründern ohnehin um viel mehr. "Wir haben bei der Pornografie angefangen, weil sie besonders heftig auf die Opfer wirkt", sagt Henseleit. Unter dem Schlagwort Digital Dignity wollen sie nicht nur Opfern von Rachepornografie die Kontrolle zurückgeben. Ein schwieriges Unterfangen, denn es müssen riesige biometrische Datenbanken aufgebaut werden, und es dürfte sich obendrein nicht mit der Datenschutzgrundverordnung vereinbaren lassen.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
Das ganze Internet in biometrischen Datenbanken 
  1. 1
  2. 2
  3.  


Lanski 24. Aug 2020

Heutige "Amateurpornos" hat Pornhub zu etwas wie influencern auf Youtube umgemodelt mit...

mxcd 19. Aug 2020

Erpressung ist ja eigentlich immer eine gute Idee. :|

User_x 14. Aug 2020

Sollte nicht die Gesellschaft selbst mit sich ein Problem haben mit anerzogenen falschen...

Kleba 14. Aug 2020

Nicht zwingend. Theoretisch könnte auch nur die technische Beschreibung des...



Aktuell auf der Startseite von Golem.de
Endzeit
Experten warnen vor der Ausrottung der Menschheit durch KI

Unternehmen wie Microsoft, Google und OpenAI stehen hinter einer sehr drastischen Stellungnahme. Die warnt vor der Auslöschung durch KI.

Endzeit: Experten warnen vor der Ausrottung der Menschheit durch KI
Artikel
  1. Blizzard: Erste Wertungen für Diablo 4 sind da
    Blizzard
    Erste Wertungen für Diablo 4 sind da

    Gamer stehen vor einem Großereignis: Blizzard veröffentlicht bald Diablo 4. Nun gibt es erste Wertungen der Fachpresse.

  2. Apple: iPhone 15 soll mit USB-C und neuem Mute-Button kommen
    Apple
    iPhone 15 soll mit USB-C und neuem Mute-Button kommen

    Erste Dummys der kommenden iPhone-15-Reihe verraten bereits ein paar interessante kleinere Details - der Mute-Button etwa wird ersetzt.

  3. Künstliche Intelligenz: So funktionieren KI-Bildgeneratoren
    Künstliche Intelligenz
    So funktionieren KI-Bildgeneratoren

    Im Netz wimmelt es mittlerweile von künstlich erzeugten Bildern reitender Astronauten, skateboardfahrender Teddys oder stylish gekleideter Päpste. Aber wie machen Dall-E, Stable Diffusion & Co. das eigentlich?
    Von Helmut Linde

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • MindStar: 14 Grafikkarten im Sale • Logitech G Pro Wireless Maus 89€ • Amazon-Geräte für Alexa bis -50% • The A500 Mini 74,99€ • Logitech G213 Prodigy Tastatur 49,90€ • Crucial P5 Plus (PS5-komp.) 1TB 71,99€, 2TB 133,99€ • HyperX Cloud II Headset 62,99€ [Werbung]
    •  /