Am I in Porn & Pimeyes: Warum Gesichtserkennung gegen Rachepornos bedenklich ist
Ausgerechnet mit Gesichtserkennung will Am I in Porn gegen Rachepornos vorgehen und mehr Privatsphäre schaffen. Die Technik dafür dürfte rechtswidrig sein.

"Wir wollen mit Gesichtserkennung den Leuten die Kontrolle zurückgeben." Was im ersten Moment wie ein schlechter Scherz klingt, meint Lukas Henseleit ernst. Er ist einer der drei Gründer von Am I in Porn, einer Plattform, die mit Gesichtserkennung gegen Rachepornos und non-consensual Porn vorgehen möchte. Ein riesiges Problem, das Existenzen zerstöre, erklärt Henseleit. Eine Freundin sei konkret betroffen gewesen.
- Am I in Porn & Pimeyes: Warum Gesichtserkennung gegen Rachepornos bedenklich ist
- Das ganze Internet in biometrischen Datenbanken
Daher haben sich die drei Gründer das Konzept mit der Gesichtserkennung überlegt. Noch steht das Projekt ganz am Anfang, doch den Gründern schwebt eine umfassende Kontrollinstanz vor, die die Menschenwürde schützen soll. Allerdings lässt sich die Technik leicht missbrauchen und dürfte schnell Begehrlichkeiten wecken. Denn die Grundlage von Am I in Porn ist die gleiche wie bei den Gesichtserkennungsdiensten Pimeyes und Clearview AI - eine umfangreiche Gesichtsdatenbank. Doch eine solche hält Stefan Brink, der Landesdatenschutzbeauftragte von Baden-Württemberg, schlicht für rechtswidrig.
Mit einem Gesichtsbild auf Pornhub suchen
Wer die Webseite Amiinporn.org besucht, kann dort ein Bild von sich knipsen oder hochladen und zwei Euro per Paypal bezahlen. Anschließend wird das Foto biometrisch vermessen und in den Videos auf Pornhub nach dem entsprechenden Gesicht gesucht. Nach einigen Sekunden präsentiert die Webseite ihre Funde mit einer Prozentzahl der wahrscheinlichen Übereinstimmung. Wurde ein Video mit der betroffenen Person ohne deren Einverständnis veröffentlicht, hilft Am I in Porn dabei, das Video löschen zu lassen.
Doch so richtig funktioniert die Suche nicht: Zu Testzwecken haben wir ein Bild einer bekannten Pornodarstellerin auf Am I in Porn hochgeladen und erhalten kurze Zeit später unsere Ergebnisse. Ein Treffer mit 99 prozentiger Wahrscheinlichkeit und 29 False-Positives mit geringeren Wahrscheinlichkeiten, also Videos in denen die Darstellerin nicht mitspielt.
Allein die Suche nach dem Namen der Darstellerin auf Pornhub liefert jedoch 1.185 Ergebnisse. Eine deutliche Diskrepanz. Obendrein gibt es das entdeckte Video nicht mehr auf der Plattform, es wurde bereits vor unserer Suchanfrage gelöscht. Das liege daran, dass noch längst nicht alle Videos auf Pornhub ausgewertet wurden, erklärt Yannick Schuchmann, der für die Technik bei Am I in Porn zuständig ist.
Bisher seien acht Millionen Videos auf Pornhub mit der Gesichtserkennungssoftware Openface ausgewertet worden. Ihre Funde speichert Am I in Porn in einer Datenbank, mit der das biometrisch vermessene Gesicht der Pornodarstellerin abgeglichen wurde. Das erklärt auch die veralteten Links. "Einmal monatlich veröffentlicht Pornhub einen Dump, mit dem arbeiten wir", sagt Schuchmann. Tagesaktuell sei die Datenbank dementsprechend nicht. Auch andere Plattformen würden bisher nicht ausgewertet.
Am I in Porn ist eine Dual-Use-Technologie
Das größere Problem ist jedoch, dass ohne weiteres Bilder von anderen Personen hochgeladen und damit geprüft werden kann, ob die entsprechende Person in einem Clip auf Pornhub auftaucht. Diese treten bewusst oft mit einem Künstlernamen auf, um nicht mit ihrer realen Identität in Verbindung gebracht zu werden - doch gegen Gesichtserkennung helfen Künstlernamen nicht.
Die Informationen können ähnlich schlimme Folgen wie ein Racheporno haben. Erst kürzlich hatte der Entertainer Oliver Pocher eine Influencerin als Sexarbeiterin geoutet und Ausschnitte aus einem weitgehend unbekannten, recht freizügigen Video einer anderen Instagramerin veröffentlicht, um diese bloßzustellen. Diese mussten anschließend Hasskommentare und Drohungen erdulden, ganz zu schweigen von den möglichen Folgen in ihrem privaten Umfeld. Die Videos könnten sich auch mit Am I in Porn herausfinden lassen, obwohl die Plattform eigentlich das Gegenteil bewirken möchte.
Verifizierungssystem und Digital Dignity
"Mit der Problematik haben wir uns lange beschäftigt", sagt Henseleit. Dabei seien sie zu dem Schluss gekommen, dass sie mit der Technik deutlich mehr Menschen helfen als schaden, da die Chance, bei missbräuchlicher Nutzung Matches zu finden, ungleich geringer sei. Nach einer Studie zweier Universitäten in Australien, sei jede fünfte Person Opfer von explizitem Material im Netz. Denen wolle man helfen, die Inhalte zu finden.
Das Abfragen mit den Bildern anderer Personen verstoße gegen die Geschäftsbedingungen, sagt Schuchmann. Um diese durchzusetzen, werde bereits an einem Verifizierungssystem gearbeitet, das in den nächsten Wochen veröffentlicht werden soll. Dieses solle ähnlich wie bei Dating-Apps funktionieren, bei denen ein Code vor sich in die Kamera gehalten werden müsse, erklärt Schuchmann.
Als ersten Schritt in die Richtung hat Am I in Porn das direkte Hochladen der Bilder während der Recherche zu diesem Artikel deaktiviert. Einen wirklichen Schutz bietet dies jedoch nicht: Es reicht, ein Foto einer anderen Person auf dem Smartphone zu öffnen und vor die Kamera zu halten.
"Würde es sich tatsächlich um ein Tool handeln, das den betroffenen Personen den Schutz ihrer Daten ermöglichen soll, so müsste es entsprechend ausgestaltet und gegen Missbrauch durch andere geschützt sein", kritisiert Brink die fehlende Verifizierung auf Nachfrage von Golem.de.
Doch eigentlich geht es den drei Gründern ohnehin um viel mehr. "Wir haben bei der Pornografie angefangen, weil sie besonders heftig auf die Opfer wirkt", sagt Henseleit. Unter dem Schlagwort Digital Dignity wollen sie nicht nur Opfern von Rachepornografie die Kontrolle zurückgeben. Ein schwieriges Unterfangen, denn es müssen riesige biometrische Datenbanken aufgebaut werden, und es dürfte sich obendrein nicht mit der Datenschutzgrundverordnung vereinbaren lassen.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Das ganze Internet in biometrischen Datenbanken |
- 1
- 2
Heutige "Amateurpornos" hat Pornhub zu etwas wie influencern auf Youtube umgemodelt mit...
Erpressung ist ja eigentlich immer eine gute Idee. :|
Sollte nicht die Gesellschaft selbst mit sich ein Problem haben mit anerzogenen falschen...
Nicht zwingend. Theoretisch könnte auch nur die technische Beschreibung des...