iOS: Forschung trickst Apples Foto-Scan aus
Apple möchte zukünftig auf den iPhones seiner Nutzer nach kinderpornografischen Inhalten suchen. Mehrere Forscher behaupten nun, die Kernkomponente des Systems nachgebaut und ausgetrickst zu haben. Apple sieht darin jedoch kein Problem.
Um Bilder mit Kindesmissbrauch zu erkennen, setzt Apple auf eine Technik namens Neuralhash . Mit dieser werden Hashes/Fingerabdrücke von Fotos erstellt und mit in einer Datenbank hinterlegten Hashes von Missbrauchsbildern abgeglichen. Das Neuralhash-Verfahren soll dabei sicherstellen, dass auch leicht veränderte Bilder weiterhin erkannt werden.
Nun ist es einer Person gelungen, das System nachzubauen und entsprechende Informationen und Software auf Github zu veröffentlichen(öffnet im neuen Fenster) . Dazu müssen insgesamt vier Dateien aus einem aktuellen MacOS oder iOS extrahiert werden. Für letzteres ist ein Jailbreak erforderlich.
Nur kurze Zeit später gab ein Sicherheitsforscher an(öffnet im neuen Fenster) , dass es ihm gelungen sei, eine Kollision zu erzeugen, also ein Bild zu generieren, das den Hash/Fingerabdruck eines anderen Bildes besitzt. Damit ist es dem Forscher gelungen, das System auszutricksen, denn für Neuralhash handelt es sich bei den beiden unterschiedlichen Bildern um das gleiche Bild.
Apple hatte bei der Vorstellung des Systems betont(öffnet im neuen Fenster) , dass es gegen solche Kollisionsangriffe resistent sei: "Die Hashing-Technologie, Neuralhash genannt, analysiert ein Bild und konvertiert es in eine eindeutige Nummer, die für dieses Bild spezifisch ist."
Apple: Noch nicht die endgültige Version von Neuralhash
Auf Nachfrage des Onlinemagazins Motherboard(öffnet im neuen Fenster) teilte Apple mit, dass es sich bei der auf Github analysierten Neuralhash um eine generische und nicht um die endgültige Version handle, die für den Foto-Scan auf den iPhones verwendet werden soll. Apple betonte zudem, dass es den Algorithmus öffentlich gemacht habe.
"Wenn es für diese Funktion Kollisionen gibt, erwarte ich, dass sie auch in dem System existieren, das Apple letztendlich aktiviert," sagte Matthew Green, der an der Johns Hopkins Universität Kryptographie lehrt, dem Onlinemagazin. "Natürlich ist es möglich, dass sie die Hash-Funktion verändern, bevor sie sie einsetzen. Aber als Proof of Concept ist [der Kollisionsangriff] definitiv gültig."
Der Direktor der Sicherheitsfirma Sixgen, Ryan Duff, hält Apples Algorithmus für ziemlich anfällig für solche Angriffe. "Man kann darüber streiten, wie riskant das ist. Es bedeutet, dass die Wahrscheinlichkeit, dass eines ihrer Bilder mit kinderpornografischen Inhalten übereinstimmt, praktisch gleich Null ist," sagte Duff. "Aber jemand könnte Ihnen ein Bild schicken, das nach dem Neuralhash-Algorithmus als kinderpornografisch detektiert wird."
Anzeige
Apple 2023 MacBook Pro Laptop M2 Pro Chip mit 10-Core CPU und 16-Core GPU: 14" Liquid Retina XDR Display, 16GB Gemeinsamer Arbeitsspeicher, 512 GB SSD Speicher
Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.
Allerdings dürften die realen Auswirkungen einer Kollision erst einmal gering sein, wie Nicholas Weaver, leitender Forscher am International Computer Science Institute der Berkeley Universität, anmerkt: "Apple hat dieses System so konzipiert, dass die Hash-Funktion nicht geheim bleiben muss, denn das Einzige, was man mit 'Nicht-kinderpornografischem-Material, das als kinderpornografisches Material gehasht wird' tun kann, ist, Apples Reaktionsteam mit einigen Müllbildern zu belästigen, bis sie einen Filter implementieren, um diese Falschmeldungen in ihrer Analyse-Pipeline zu eliminieren."
Erst wenn 30 Bilder, die auf dem iPhone gescannt und in die iCloud geladen wurden, von Neuralhash positiv auf Kindesmissbrauch getestet wurden, schlägt Apples System in der iCloud an. Dort sollen die Fotos erneut gescannt und anschließend von Apple-Angestellten überprüft werden. Wird kinderpornografisches Material entdeckt, werden das iCloud-Konto des Betroffenen gesperrt und ein Bericht an eine Kinderschutzorganisation gesendet. Diese kann dann die Strafverfolgungsbehörden einschalten.
Apple-Angestellte, Bürgerrechtler und Journalisten kritisieren den Foto-Scan
Apples geplanter Foto-Scan erntete in den vergangen Wochen von etlichen Seiten Kritik, darunter Journalistenverbände, die die Pressefreiheit in Gefahr sehen , etliche Bürgerrechtler, Apple-Angestellte und bekannte Persönlichkeiten. "Egal wie gut es gemeint ist, Apple erlaubt damit Massenüberwachung auf der ganzen Welt," erklärte etwa der Whistleblower Edward Snowden .
Auch Whatsapp-Chef Will Cathcart kritisierte das von "Apple gebaute und betriebene Überwachungssystem." Die US-Bürgerrechtsorganisation Electronic Frontier Foundation (EFF) bezeichnete die Technik als Backdoor, trotz der technischen Erklärungen Apples, wie die Privatsphäre der Nutzer geschützt werden solle: "Am Ende des Tages ist selbst eine gründlich dokumentierte, sorgfältig durchdachte und eng gefasste Hintertür immer noch eine Hintertür."
Der iPhone-Hersteller verteidigte die neue Funktion und kündigte an, jegliche Versuche von Regierungen, die das Verfahren für die Suche nach anderen Inhalten nutzen wollten, abzuweisen. In einer Stellungnahme spielte das Unternehmen auf Forderungen des FBI an, die von Apple eine Abschwächung der Geräteverschlüsselung forderten.
Allerdings hat es Apple unterlassen, die iCloud so zu verschlüsseln, dass nur noch die Nutzer selbst auf ihre Daten und Backups zugreifen können. Eine entsprechende Funktion war zwar geplant, wurde jedoch nie umgesetzt , um einem Konflikt mit dem FBI aus dem Weg zu gehen. So kann Apple und damit auch das FBI auf nahezu alle Daten der iPhones zugreifen, sofern sie mit der iCloud synchronisiert werden.
- Anzeige Hier geht es zum Handbuch für Softwareentwickler bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.