Überwachung: Apple will Missbrauchs-Bilder auf iPhones suchen

iPhones sollen zukünftig mit einem ausgefeilten System nach Kinderpornografie durchsucht werden. Kritiker nennen das System eine "Backdoor".

Artikel veröffentlicht am , /
Apple baut ein System zum Scannen von Bildern seiner Nutzer auf und sucht nach Missbrauchsmaterial.
Apple baut ein System zum Scannen von Bildern seiner Nutzer auf und sucht nach Missbrauchsmaterial. (Bild: Brendan McDermid/File Photo/Reuters)

Apple will ab Herbst die Fotos von iPhone- und iPad-Nutzern auf kinderpornografisches Material scannen, bevor diese in die iCloud geladen werden. Eine ausgefeilte Technik soll den Datenschutz sicherstellen. An dem System, das mit iOS respektive iPadOS 15 in den USA eingeführt werden soll und teils als "Backdoor" bezeichnet wird, gibt es fundamentale Kritik von Bürgerrechtsorganisationen und Kryptografie-Experten.

Stellenmarkt
  1. DevOps Engineer (m/w/d)
    Deutsche Bundesbank, Hamburg, Leipzig, Düsseldorf, Frankfurt am Main, Stuttgart, München
  2. Consultant Virtualisierung (m/w/d)
    ORBIT Gesellschaft für Applikations- und Informationssysteme mbH, Bonn
Detailsuche

Apple führt den Scan der Fotos direkt auf den Geräten der Nutzer durch. Dazu werden Hashes von den vorhandenen Dateien gebildet und lokal mit einer Datenbank abgeglichen, die Hashes von bekanntem kinderpornografischen Material enthält.

Damit erinnert das System stark an Microsofts Photo-DNA, das ebenfalls Fotos und Videos über eine Datenbank auf kinderpornografische Inhalte überprüft - allerdings auf den Servern von Google, Facebook, Twitter und Microsoft und nicht auf den Geräten der Nutzer selbst.

Hashverfahren soll auch veränderte Bilder erkennen

Wie bei Photo-DNA soll bei Apple ein Hashverfahren zum Einsatz kommen, das auch leicht veränderte Bilder erkennen soll. Apple spricht bei seinem Neuralhash-Verfahren von "nahezu identischen" Bildern. Als Beispiel wird ein konvertiertes und qualitätsreduziertes Bild genannt, das weiterhin erkannt werden würde.

Golem Karrierewelt
  1. DP-203 Data Engineering on Microsoft Azure: virtueller Vier-Tage-Workshop
    24.-27.10.2022, virtuell
  2. Hands-on C# Programmierung: virtueller Zwei-Tage-Workshop
    08./09.11.2022, virtuell
Weitere IT-Trainings

Die Grundlage dafür bildet ein Machine-Learning-Modell, das Bilder nicht pixelgenau repräsentiert, sondern stattdessen Inhalte des Bildes selbst erkennen soll. Sehr ähnliche Bilder sollen damit ähnliche beziehungsweise sogar gleiche Erkennungswerte des Modells erhalten. Die Werte des Modells wiederum werden dann gehasht.

Die Hashdatenbank stammt laut Apple von der US-Nichtregierungsorganisation NCMEC (National Center for Missing & Exploited Children) und weiteren nicht explizit genannten Kinderschutzorganisationen, wird direkt in iOS integriert und mit dessen Betriebssystem-Updates aktualisiert. Ob und wann die Technik auch in MacOS Einzug halten oder hierzulande eingeführt werden soll, ist nicht bekannt.

Die iCloud schlägt Alarm

Das Analyseergebnis - positiv oder negativ - legt Apple in einem "kryptografischen Sicherheits-Voucher" ab. Dieser wird gemeinsam mit dem jeweiligen Bild in die iCloud geladen. Das Ergebnis der Analyse soll auf eine Weise abgelegt sein, dass weder Apple noch der Betroffene dieses einsehen können.

Erst wenn ein von Apple gesetzter Schwellenwert aus mehreren Analysen beziehungsweise in der iCloud hinterlegten Vouchern überschritten wird, schlägt das System Alarm. Der Schwellenwert sei dabei so hoch gesetzt worden, dass es nur in jedem billionsten Fall einen Fehlalarm geben solle, schreibt Apple (PDF).

Schlägt das System Alarm, wird dieser manuell von Apple überprüft. Wird kinderpornografisches Material entdeckt, werden das iCloud-Konto des Betroffenen gesperrt und ein Bericht an NCMEC gesendet. Die NGO kann dann die Strafverfolgungsbehörden einschalten. Die Betroffenen will Apple nicht explizit informieren, allerdings können sie Widerspruch gegen die Sperrung ihres Accounts einlegen.

EFF kritisiert Apples Backdoor

Die auf digitale Rechte spezialisierte US-Bürgerrechtsorganisation Electronic Frontier Foundation (EFF) kritisierte die Pläne Apples: "Der Missbrauch von Kindern ist ein ernstes Problem, und Apple ist nicht das erste Technologieunternehmen, das seine Haltung zum Schutz der Privatsphäre verbiegt, um es zu bekämpfen. Aber diese Wahl wird einen hohen Preis für die allgemeine Privatsphäre der Nutzer haben."

Die EFF bezeichnet die Technik als Backdoor, trotz der technischen Erklärungen Apples, wie die Privatsphäre der Nutzer geschützt werden solle: "Aber am Ende des Tages ist selbst eine gründlich dokumentierte, sorgfältig durchdachte und eng gefasste Hintertür immer noch eine Hintertür."

Kritiker der oft standardmäßigen Verschlüsselung von privater Kommunikation - etwa Strafverfolgungsbehörden und Sicherheitspolitiker - führen oft den Kampf gegen sexuellen Kindesmissbrauch als Argument an, um die Einschränkung oder Abschaffung von Verschlüsselung zu fordern. Entsprechende Forderungen gibt es sowohl in den USA als auch in Europa und Deutschland regelmäßig. Datenschützer weisen auf den Privatsphäre- und Sicherheitsverlust durch eine Einschränkung oder Abschaffung der Verschlüsselung hin.

2022 Apple MacBook Pro Laptop mit M2 Chip

Apple hatte sich in der Vergangenheit mehrfach öffentlichkeitswirksam gegen das FBI gewehrt und Hintertüren in seiner Geräteverschlüsselung verweigert. Allerdings soll Apple auf Druck des FBIs auf eine Verschlüsselung der iCloud verzichtet haben, in der die meisten Nutzer von Apple-Geräten ihre Daten und Backups lagern. Auf diese Weise kann das FBI ohnehin problemlos an die Daten auf den meisten iPhones gelangen.

Apple proklamiert mit seinem System, das Problem auf eine Privatsphäre-freundliche Weise zu lösen. Um dies zu belegen, veröffentlichte der Konzern Analysen mehrerer Experten, die den Datenschutz des Verfahrens begrüßten.

Apples System kann nicht kontrolliert werden

Auf Twitter kritisierte derweil der Kryptografie-Experte der US-Universität Johns Hopkins, Matthew Green, Apple verspreche in Bezug auf Angriffe über mögliche Hash-Kollisionen, dass es "fast nie" zu Fehlfunktionen kommen solle, "wenn wir davon ausgehen, dass das Sicherheitssystem kein bösartiges Verhalten aufweist". Darüber hinaus sollten die Hashwerte der Datenbank nicht einsehbar sein. Das wiederum bedeutet laut Green jedoch, dass das System und was genau gescannt werde, nicht überprüfbar sei.

Green monierte darüber hinaus, dass ein Experte für die Computer Vision, also Bildanalyse, das Sicherheitssystem als fachfremde Person analysiere. Ebenso fehle eine Betrachtung sogenannter "Adversarial ML", also gezielter Angriffe auf das eingesetzte Machine-Learning-Modell. Green bezeichnet diesen Bereich als derzeit schwerstes ungelöstes Problem der Informatik. Eine Überprüfung der wichtigsten Bestandteile fand laut Green demzufolge überhaupt nicht statt.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Bluefoxx 09. Aug 2021

Apple kann mit einem Verfahren, das du nicht kennst und ohne dass du es merkst deine...

nightmar17 08. Aug 2021

Ja und trotzdem bist du erstmal verdächtig und du wirst überprüft, ebenso deine Geräte...

ThorsProvoni 08. Aug 2021

Nochmals: iCloud Backups sind verschlüsselt, aber nicht End-End. D.h. Apple hat den...

seven83 08. Aug 2021

@Leberkassemme Natürlich scannen bereits alle Cloudanbieter die Inhalte auf...



Aktuell auf der Startseite von Golem.de
Künstliche Intelligenz
Werden Computer so schlau wie Menschen?

Das Feld der künstlichen Intelligenz hat in den letzten zehn Jahren rasante Fortschritte gemacht. Wird der Computer den Menschen in puncto Intelligenz und Kreativität einholen? Und was dann?
Von Helmut Linde

Künstliche Intelligenz: Werden Computer so schlau wie Menschen?
Artikel
  1. Die große Umfrage: Das sind Deutschlands beste IT-Arbeitgeber 2023
    Die große Umfrage
    Das sind Deutschlands beste IT-Arbeitgeber 2023

    Golem.de und Statista haben 23.000 Fachkräfte nach ihrer Arbeit gefragt. Das Ergebnis ist eine Liste der 175 besten Unternehmen für IT-Profis.

  2. Monitoring von Container-Landschaften: Prometheus ist nicht alles
    Monitoring von Container-Landschaften
    Prometheus ist nicht alles

    Betreuer von Kubernetes und Co., die sich nicht ausreichend mit der Thematik beschäftigen, nehmen beim metrikbasierte Monitoring unwissentlich einige Nachteile in Kauf. Eventuell ist es notwendig, den üblichen Tool-Stack zu ergänzen.
    Von Valentin Höbel

  3. Linux: Debian entscheidet sich für Closed-Source-Firmwares
    Linux
    Debian entscheidet sich für Closed-Source-Firmwares

    Bei der Linux-Distribution ist die Entscheidung gefallen, in Zukunft Closed-Source-Firmware in den offiziellen Images zu erlauben.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • 3 Spiele für 49€ • Saturn Gutscheinheft • Günstig wie nie: LG OLED 48" 799€, Xbox Elite Controller 2 114,99€, AOC 28" 4K UHD 144 Hz 600,89€, Corsair RGB Midi-Tower 269,90€, Sandisk microSDXC 512GB 39€ • Bis zu 15% im eBay Restore • MindStar (PowerColor RX 6700 XT 489€) [Werbung]
    •  /