Überwachung: Apple nennt neue Details zum Foto-Scan auf iPhones

Fehlalarme bei der Suche nach Fotos mit Kindesmissbrauch sollen möglichst vermieden werden. Grundsätzlich hält Apple aber an dem Verfahren fest.

Artikel veröffentlicht am ,
Apple will den Missbrauch der Fotodetekton verhindern.
Apple will den Missbrauch der Fotodetekton verhindern. (Bild: Mike Segar/Reuters)

Der US-Computerkonzern Apple reagiert auf die Kritik an der geplanten Überwachungsfunktion seiner Geräte. In einem am 13. August 2021 veröffentlichten Hintergrundpapier erläutert das Unternehmen Details zu der geplanten Überwachungsfunktion. Dabei geht es unter anderem um die Frage, auf welcher Basis welcher Datenbanken die Fotos der Nutzer mit bekannten Missbrauchsbildern verglichen werden sollen. Einen Verzicht auf die umstrittene Funktion, mit der im Grunde die Ende-zu-Ende-Verschlüsselung von Inhalten aufgeweicht wird, plant der Konzern jedoch nicht.

Apple will ab Herbst die Fotos von iPhone- und iPad-Nutzern auf kinderpornografisches Material scannen, bevor diese in die iCloud geladen werden. Der Scan der Fotos soll direkt auf den Geräten der Nutzer erfolgen. Dazu werden Hashes von den vorhandenen Dateien gebildet und lokal mit einer Datenbank abgeglichen, die Hashes von bekanntem kinderpornografischen Material (englisch: child sexual abuse material (CSAM)) enthält.

Dem Papier zufolge (PDF) sollen die Hashwerte der Nutzerfotos künftig nicht nur mit einer, sondern mit zwei oder mehr Datenbanken verglichen werden. "Die auf dem Gerät verschlüsselte CSAM-Datenbank enthält nur Einträge, die unabhängig von zwei oder mehr Kinderschutzorganisationen eingereicht wurden, die in unabhängigen Gebietskörperschaften tätig sind, das heißt nicht unter der Kontrolle derselben Regierung stehen", schreibt Apple.

Alarm erst bei 30 Treffern

Weiter heißt es: "Mathematisch ist das Ergebnis jeder Übereinstimmung dem Gerät unbekannt. Das Gerät codiert dieses unbekannte und verschlüsselte Ergebnis nur in einen sogenannten Sicherheitsbeleg (safety voucher), zusammen mit jedem Bild, das in iCloud Photos hochgeladen wird. Die iCloud-Photos-Server können die Sicherheitsbelege für positive Übereinstimmungen entschlüsseln, wenn und nur wenn das iCloud-Photos-Konto dieses Benutzers eine bestimmte Anzahl von Übereinstimmungen überschreitet, die als Trefferschwelle bezeichnet wird."

Apple geht davon aus, dass diese Schwelle zunächst bei 30 Treffern liegen soll. Dieser Wert enthalte eine hohe Sicherheitsmarge, die eine Worst-Case-Annahme über die tatsächliche Leistung des Systems widerspiegele. Der Wert könne nach einer empirischen Bewertung noch verändert werden. Jedoch soll es nur in einem von einer Billion Fällen zu einem Fehlalarm bei einem Nutzerkonto kommen.

Das Unternehmen versicherte, dass weltweit auf allen Geräten dieselbe Software für das Verfahren verbreitet werde. Daher sei es nicht möglich, den Hashalgorithmus, den Schwellenwert oder Vergleichssoftware bei bestimmten Nutzern individuell zu ändern.

Wenn die Trefferschwelle überschritten wird, führt Apple einen weiteren Datenbankabgleich durch, um mögliche Fehltreffer auf den Geräten auszuschließen. Erst danach sollen Apple-Mitarbeiter überprüfen, ob die beanstandeten Fotos tatsächlich Missbrauchsmaterial enthalten. "In diesem Fall deaktivieren die Prüfer das betreffende Konto und melden den Benutzer der Kindersicherheitsorganisation, die mit den Strafverfolgungsbehörden zusammenarbeitet, um den Fall weiter zu bearbeiten", schreibt Apple.

Heimliche Änderungen an der CSAM-Hash-Datenbank reichten daher nicht aus, um unschuldige Personen zur Anzeige zu bringen. Apple werde alle Anfragen zum Hinzufügen von Nicht-CSAM-Bildern in die Datenbanken ablehnen. Apple werde zudem alle Forderungen zurückweisen, wonach die Prüfer auch andere Fotos als Missbrauchsdarstellungen an die Behörden weiterleiten sollen.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Grob Notoriker 16. Aug 2021

...

Trollversteher 16. Aug 2021

Öhm exakt das schrieb ich doch? Auf den falschen Beitrag geantwortet?

Trollversteher 16. Aug 2021

Um die Verschlüsselung nicht aufheben zu müssen scanned man ja lokal auf dem Gerät...

Trollversteher 16. Aug 2021

Ja, das kann man ja alles kritisieren, mir ging es hier in diesem Kommentar tatsächlich...



Aktuell auf der Startseite von Golem.de
Updates für GPT-3 und GPT-4
GPT im Geschwindigkeitsrausch

OpenAIs Updates für GPT-4 und GPT-3 machen die Modelle zuverlässiger, vor allem aber anpassungsfähiger. Die Änderungen und neuen Features im Detail.
Von Fabian Deitelhoff

Updates für GPT-3 und GPT-4: GPT im Geschwindigkeitsrausch
Artikel
  1. Candy Crushed: Royal Match wird profitabelstes Mobile Game
    Candy Crushed
    Royal Match wird profitabelstes Mobile Game

    Die langanhaltende Dominanz von Candy Crush Saga ist vorbei. Das meiste Geld verdient jetzt ein Start-up aus Istanbul mit einem Puzzlespiel.

  2. Datenschutz: ChatGPT-Exploit findet E-Mail-Adressen von Times-Reportern
    Datenschutz
    ChatGPT-Exploit findet E-Mail-Adressen von Times-Reportern

    Eigentlich sollte der Chatbot auf diese Anfrage gar nicht antworten. Tut er es dennoch, lauern womöglich noch viel brisantere Informationen.

  3. Donald E. Knuth: 30 Jahre Weihnachtsvorlesungen frei verfügbar
    Donald E. Knuth
    30 Jahre Weihnachtsvorlesungen frei verfügbar

    Ein bisschen theoretische Informatik, Algorithmen oder Mathematik zu Weihnachten? Wer das mag, kann nun sogar alle Vorlesungen hintereinander ansehen.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • TeamGroup Cardea Graphene A440 2 TB mit zwei Kühlkörpern 112,89€ • Logitech G915 TKL LIGHTSYNC RGB 125,11€ • AVM FRITZ!Repeater 3000 AX 129€ • Philips Ambilight 77OLED808 2.599€ • MindStar: Patriot Viper VENOM 64 GB DDR5-6000 159€, XFX RX 7900 XT Speedster MERC 310 Black 789€ [Werbung]
    •  /