Überwachung: Apple will Missbrauchs-Bilder auf iPhones suchen

iPhones sollen zukünftig mit einem ausgefeilten System nach Kinderpornografie durchsucht werden. Kritiker nennen das System eine "Backdoor".

Artikel veröffentlicht am , /
Apple baut ein System zum Scannen von Bildern seiner Nutzer auf und sucht nach Missbrauchsmaterial.
Apple baut ein System zum Scannen von Bildern seiner Nutzer auf und sucht nach Missbrauchsmaterial. (Bild: Brendan McDermid/File Photo/Reuters)

Apple will ab Herbst die Fotos von iPhone- und iPad-Nutzern auf kinderpornografisches Material scannen, bevor diese in die iCloud geladen werden. Eine ausgefeilte Technik soll den Datenschutz sicherstellen. An dem System, das mit iOS respektive iPadOS 15 in den USA eingeführt werden soll und teils als "Backdoor" bezeichnet wird, gibt es fundamentale Kritik von Bürgerrechtsorganisationen und Kryptografie-Experten.

Stellenmarkt
  1. Wissenschaftliche*n Mitarbeiter*in (w/m/d) im Lehrgebiet Programmiersysteme
    FernUniversität in Hagen, Hagen
  2. Digital Process Engineer (m/w/d) für den Bereich Tool-Logistik
    MAPAL Präzisionswerkzeuge Dr. Kress KG, Aalen
Detailsuche

Apple führt den Scan der Fotos direkt auf den Geräten der Nutzer durch. Dazu werden Hashes von den vorhandenen Dateien gebildet und lokal mit einer Datenbank abgeglichen, die Hashes von bekanntem kinderpornografischen Material enthält.

Damit erinnert das System stark an Microsofts Photo-DNA, das ebenfalls Fotos und Videos über eine Datenbank auf kinderpornografische Inhalte überprüft - allerdings auf den Servern von Google, Facebook, Twitter und Microsoft und nicht auf den Geräten der Nutzer selbst.

Hashverfahren soll auch veränderte Bilder erkennen

Wie bei Photo-DNA soll bei Apple ein Hashverfahren zum Einsatz kommen, das auch leicht veränderte Bilder erkennen soll. Apple spricht bei seinem Neuralhash-Verfahren von "nahezu identischen" Bildern. Als Beispiel wird ein konvertiertes und qualitätsreduziertes Bild genannt, das weiterhin erkannt werden würde.

Golem Karrierewelt
  1. Azure und AWS Cloudnutzung absichern: virtueller Zwei-Tage-Workshop
    22./23.09.2022, virtuell
  2. Go für Einsteiger: virtueller Zwei-Tages-Workshop
    26./27.09.2022, Virtuell
Weitere IT-Trainings

Die Grundlage dafür bildet ein Machine-Learning-Modell, das Bilder nicht pixelgenau repräsentiert, sondern stattdessen Inhalte des Bildes selbst erkennen soll. Sehr ähnliche Bilder sollen damit ähnliche beziehungsweise sogar gleiche Erkennungswerte des Modells erhalten. Die Werte des Modells wiederum werden dann gehasht.

Die Hashdatenbank stammt laut Apple von der US-Nichtregierungsorganisation NCMEC (National Center for Missing & Exploited Children) und weiteren nicht explizit genannten Kinderschutzorganisationen, wird direkt in iOS integriert und mit dessen Betriebssystem-Updates aktualisiert. Ob und wann die Technik auch in MacOS Einzug halten oder hierzulande eingeführt werden soll, ist nicht bekannt.

Die iCloud schlägt Alarm

Das Analyseergebnis - positiv oder negativ - legt Apple in einem "kryptografischen Sicherheits-Voucher" ab. Dieser wird gemeinsam mit dem jeweiligen Bild in die iCloud geladen. Das Ergebnis der Analyse soll auf eine Weise abgelegt sein, dass weder Apple noch der Betroffene dieses einsehen können.

Erst wenn ein von Apple gesetzter Schwellenwert aus mehreren Analysen beziehungsweise in der iCloud hinterlegten Vouchern überschritten wird, schlägt das System Alarm. Der Schwellenwert sei dabei so hoch gesetzt worden, dass es nur in jedem billionsten Fall einen Fehlalarm geben solle, schreibt Apple (PDF).

Schlägt das System Alarm, wird dieser manuell von Apple überprüft. Wird kinderpornografisches Material entdeckt, werden das iCloud-Konto des Betroffenen gesperrt und ein Bericht an NCMEC gesendet. Die NGO kann dann die Strafverfolgungsbehörden einschalten. Die Betroffenen will Apple nicht explizit informieren, allerdings können sie Widerspruch gegen die Sperrung ihres Accounts einlegen.

EFF kritisiert Apples Backdoor

Die auf digitale Rechte spezialisierte US-Bürgerrechtsorganisation Electronic Frontier Foundation (EFF) kritisierte die Pläne Apples: "Der Missbrauch von Kindern ist ein ernstes Problem, und Apple ist nicht das erste Technologieunternehmen, das seine Haltung zum Schutz der Privatsphäre verbiegt, um es zu bekämpfen. Aber diese Wahl wird einen hohen Preis für die allgemeine Privatsphäre der Nutzer haben."

Die EFF bezeichnet die Technik als Backdoor, trotz der technischen Erklärungen Apples, wie die Privatsphäre der Nutzer geschützt werden solle: "Aber am Ende des Tages ist selbst eine gründlich dokumentierte, sorgfältig durchdachte und eng gefasste Hintertür immer noch eine Hintertür."

Kritiker der oft standardmäßigen Verschlüsselung von privater Kommunikation - etwa Strafverfolgungsbehörden und Sicherheitspolitiker - führen oft den Kampf gegen sexuellen Kindesmissbrauch als Argument an, um die Einschränkung oder Abschaffung von Verschlüsselung zu fordern. Entsprechende Forderungen gibt es sowohl in den USA als auch in Europa und Deutschland regelmäßig. Datenschützer weisen auf den Privatsphäre- und Sicherheitsverlust durch eine Einschränkung oder Abschaffung der Verschlüsselung hin.

2022 Apple MacBook Pro Laptop mit M2 Chip

Apple hatte sich in der Vergangenheit mehrfach öffentlichkeitswirksam gegen das FBI gewehrt und Hintertüren in seiner Geräteverschlüsselung verweigert. Allerdings soll Apple auf Druck des FBIs auf eine Verschlüsselung der iCloud verzichtet haben, in der die meisten Nutzer von Apple-Geräten ihre Daten und Backups lagern. Auf diese Weise kann das FBI ohnehin problemlos an die Daten auf den meisten iPhones gelangen.

Apple proklamiert mit seinem System, das Problem auf eine Privatsphäre-freundliche Weise zu lösen. Um dies zu belegen, veröffentlichte der Konzern Analysen mehrerer Experten, die den Datenschutz des Verfahrens begrüßten.

Apples System kann nicht kontrolliert werden

Auf Twitter kritisierte derweil der Kryptografie-Experte der US-Universität Johns Hopkins, Matthew Green, Apple verspreche in Bezug auf Angriffe über mögliche Hash-Kollisionen, dass es "fast nie" zu Fehlfunktionen kommen solle, "wenn wir davon ausgehen, dass das Sicherheitssystem kein bösartiges Verhalten aufweist". Darüber hinaus sollten die Hashwerte der Datenbank nicht einsehbar sein. Das wiederum bedeutet laut Green jedoch, dass das System und was genau gescannt werde, nicht überprüfbar sei.

Green monierte darüber hinaus, dass ein Experte für die Computer Vision, also Bildanalyse, das Sicherheitssystem als fachfremde Person analysiere. Ebenso fehle eine Betrachtung sogenannter "Adversarial ML", also gezielter Angriffe auf das eingesetzte Machine-Learning-Modell. Green bezeichnet diesen Bereich als derzeit schwerstes ungelöstes Problem der Informatik. Eine Überprüfung der wichtigsten Bestandteile fand laut Green demzufolge überhaupt nicht statt.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Bluefoxx 09. Aug 2021

Apple kann mit einem Verfahren, das du nicht kennst und ohne dass du es merkst deine...

nightmar17 08. Aug 2021

Ja und trotzdem bist du erstmal verdächtig und du wirst überprüft, ebenso deine Geräte...

ThorsProvoni 08. Aug 2021

Nochmals: iCloud Backups sind verschlüsselt, aber nicht End-End. D.h. Apple hat den...

seven83 08. Aug 2021

@Leberkassemme Natürlich scannen bereits alle Cloudanbieter die Inhalte auf...



Aktuell auf der Startseite von Golem.de
25 Jahre Dungeon Keeper
Wir sind wieder richtig böse!

Nicht Held, sondern Monster: Darum geht's in Dungeon Keeper von Peter Molyneux. Golem.de hat neu gespielt - und einen bösen Bug gefunden.
Von Andreas Altenheimer

25 Jahre Dungeon Keeper: Wir sind wieder richtig böse!
Artikel
  1. bZ4X: Toyota bietet Rückkauf seiner zurückgerufenen E-Autos an
    bZ4X
    Toyota bietet Rückkauf seiner zurückgerufenen E-Autos an

    Toyota bietet Kunden den Rückkauf seiner Elektro-SUVs an, nachdem diese im Juni wegen loser Radnabenschrauben zurückgerufen wurden.

  2. Laptops: Vom Bastel-Linux zum heimlichen Liebling der Entwickler
    Laptops
    Vom Bastel-Linux zum heimlichen Liebling der Entwickler

    Noch vor einem Jahrzehnt gab es kaum Laptops mit vorinstalliertem Linux. Inzwischen liefern das aber sogar die drei weltgrößten Hersteller - ein überraschender Siegeszug.

  3. Entwicklerstudio: Eidos Montreal möchte Cyberpunk 2077 mit Deus Ex toppen
    Entwicklerstudio
    Eidos Montreal möchte Cyberpunk 2077 mit Deus Ex toppen

    Eidos Montreal würde gerne ein neues Deus Ex machen. Der Plan, damit Cyberpunk 2077 zu übertrumpfen, scheitert aber vorerst an einem Detail.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • MindStar (u. a. Samsung 980 1 TB 77€ und ASRock RX 6800 639€ ) • Alternate (u. a. Corsair Vengeance LPX 8 GB DDR4-3200 34,98€ ) • AOC GM200 6,29€ • be quiet! Deals • SSV bei Saturn (u. a. WD_BLACK SN850 1 TB 119€) • Weekend Sale bei Alternate • PDP Victrix Gambit 63,16€ [Werbung]
    •  /