ProtectPhoto: Gesichtserkennung bei Gruppenfotos technisch austricksen
Das Berliner Startup Brighter AI hat eine Software entwickelt, die eine Gesichtserkennung bei Bildern unterbinden soll. Sie steht jetzt teilweise frei zur Verfügung.

Software zur biometrischen Gesichtserkennung wird immer häufiger verwendet, um der Privatsphäre von Internetnutzern den Garaus zu machen. Das zeigte sich nicht nur beim Einsatz der Technik gegen Demonstranten in Hamburg, Hongkong oder den USA.
- ProtectPhoto: Gesichtserkennung bei Gruppenfotos technisch austricksen
- Deepfakes sollen ausgeschlossen werden
Schlagzeilen machten in diesem Jahr auch die Geschäftsmodelle von Unternehmen wie Clearview und PimEyes. Diese sammeln digitale Porträtfotos ohne die Einwilligung der Betroffenen in Datenbanken, vermessen sie biometrisch und können auf diese Weise Profile der abgebildeten Personen erstellen.
Algorithmen lassen sich aber nicht nur dazu nutzen, die Privatsphäre im Netz auszuhöhlen, sondern auch für das Gegenteil. So spezialisierte sich etwa das Berliner Startup Brighter AI darauf, die Technik für die Anonymisierung von Gesichtern und Kfz-Kennzeichen in Bilddaten zu verwenden. Die Firma machte ihre bisher nur auf Geschäftskunden ausgerichtete Lösung nun unter dem Namen ProtectPhoto auch für die breite Öffentlichkeit in eingeschränkter Version verfügbar.
Die Handhabe ist einfach: Jeder kann ein Gruppenfoto, das er etwa in sozialen Netzwerken posten möchte, über die Website www.protect.photo hochladen und anonymisieren. Bald soll dafür auch eine App für iOS und Android bereitstehen. In wenigen Sekunden rechnet die Software dahinter dann die einzigartigen Attribute zur Gesichtserkennung heraus, behält jedoch Haut- und Augenfarbe, Geschlecht und Alter bei. Auf den angepassten Fotos fallen Menschen im Idealfall nur geringe Unterschiede zum Original auf. Maschinen sollen die Gesichter aber so gut wie nicht mehr einer Person zuordnen können.
"Bei unserer Deep Natural Anonymization werden künstliche Gesichter generiert und irreversibel über die ursprünglichen gelegt", erklärt Marian Gläser, Gründer von Brighter AI, das Prinzip Golem.de. So werde die Identität von Personen auf Aufnahmen durch eine künstliche Maske geschützt. Das Verfahren funktioniere unabhängig von Kameraeinstellungen, Auflösung und Lichtverhältnissen, der Datenschutz stehe dabei im Vordergrund.
Die Bilder lägen in einem geschützten Docker-Container auf einem Server des Microsoft-Cloud-Diensts Azure in der EU, versichert der Unternehmer. Das Speicherangebot werde ausschließlich für die Nutzung von ProtectPhoto gemietet und nicht geteilt. Die Anmeldung auf dem Server ist Gläser zufolge nur per SSH-Key möglich, die Festplatte mit 256-Bit-AES (Advanced Encryption Standard) verschlüsselt. Es gebe keinen Weg, einfach auf die Bilddaten zuzugreifen. Es würden auch keine Nutzerdaten erhoben, und es gebe keine Trackingdienste in der Anwendung.
"Die Originalbilder werden gelöscht, sobald die Gesichter ersetzt wurden und nur noch das geschützte Bild vorliegt", sagt Gläser. Dieses werde nach dem Download ebenfalls gelöscht. Wenn ein Nutzer das umgewandelte Foto nicht herunterlade, werde es nach maximal 24 Stunden automatisch entfernt.
Grundsätzlich funktioniert die Lösung Gläser zufolge etwa bei dem kostenpflichtigen Angebot des Unternehmens für Firmenkunden auch dann, wenn nur eine Person oder ein Kennzeichen zu sehen ist. Das Showcase ProtectPhoto habe man aber bewusst auf Gruppenfotos eingeschränkt. Der Service solle dazu dienen, etwa Demonstranten zu schützen. Es gehe nicht darum, gezielt einzelne Identitäten austauschbar zu machen.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Deepfakes sollen ausgeschlossen werden |
- 1
- 2
i++ Kann ich da nur sagen :D
Wenn es jetzt einen Algorithmus gibt, der die jetzigen Gesichtserkennungsalgorithmen...
Ist das was falsch verlinkt worden?
Hab mir spontan mal das Ergebnis bei nem zufällig gewählten Gruppenfoto angeschaut. Bei...