Differential Privacy: Apples Datenschutz-Hack für bessere Emojis
Apple will mit den Assistenzdiensten von Google und Microsoft mithalten - dazu bedarf es aber Informationen und künstlicher Intelligenz. Trotzdem soll die Privatsphäre der Nutzer geschützt bleiben - Differential Privacy soll helfen.

Neben den Neuerungen an den Plattformen des Unternehmens hat Apple gestern auf der Entwicklerkonferenz WWDC ein neues Feature vorgestellt, das die Privatsphäre der Nutzer schützen und es Apple gleichzeitig ermöglichen soll, mehr über seine Nutzer zu erfahren.
- Differential Privacy: Apples Datenschutz-Hack für bessere Emojis
- Spotlight-Suche, Quicktype und schöne Emojis dank KI
Nicht erst seit dem öffentlichen Streit mit dem FBI wirbt Apple damit, seine Umsätze im Wesentlichen mit Hardware zu machen und daher keine invasiven Datensammlungen über die Nutzer anstellen zu müssen, um Profite zu generieren. Doch im derzeitigen Wettbewerb um die besten digitalen Assistenten, die auf Basis von Nutzerdaten und mit Hilfe künstlicher Intelligenz den Alltag der Nutzer vereinfachen sollen, kommt Apple nicht umhin, mehr zu erfahren. Siri, einst das innovativste Produkt am Markt, hinkt Diensten wie Cortana und Google Now mittlerweile hinterher.
Apples Antwort auf dieses Problem heißt jetzt "Differential Privacy", also ungefähr "unterschiedliche Privatheit". Mit diesem von Apple zu Marketingzwecken übernommenen Begriff wird eine Forschungsrichtung in der Statistik beschrieben. Letztlich geht es darum, mathematisch zu beweisen, dass Informationen aus einer Datenbank nicht einer individuellen Person zugeordnet werden können.
Differential Privacy soll es Angreifern unmöglich machen, Informationen über Individuen auszulesen, weil den besonders schützenswerten Daten Zufallswerte hinzugefügt werden. Dies geschehe mit einer Mischung aus Hashing, der Analyse nur kleiner Teile der Datenbank (Subsampling) und mathematischen Störgeräuschen.
Haben Sie schon mal das Gesetz gebrochen?
Ein Beispiel dafür: Bei einer Umfrage sollen Menschen angeben, ob sie das Gesetz gebrochen haben oder nicht. Um sich nicht selbst zu belasten, wird vorher ein Zufallsmoment eingeführt. Basierend auf einem Würfelwurf oder einem Münzwurf beantwortet der Teilnehmer die Frage deterministisch ehrlich oder unehrlich - später lässt sich dann trotzdem herausrechnen, wie das korrekte Ergebnis der Umfrage lautet, ohne die Individuen belasten zu können.
Damit soll Apple in der Lage sein, wie Wired schreibt, "so viel wie möglich über eine Gruppe zu lernen und dabei gleichzeitig so wenig wie möglich über eine einzelne Person darin". So könnte Apple erfahren, worüber Menschen sprechen, was sie tun und was sie wollen, ohne diese Informationen einem Individuum zuordnen zu können.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Spotlight-Suche, Quicktype und schöne Emojis dank KI |
- 1
- 2
https://de.wikipedia.org/wiki/Deppenapostroph
Jegliches Massenangebot kann nur Angebote unterbreiten, die nicht Individuen abdecken...
Bisher konnte man ja icloud&Co., Tastaturen- und Adressbuchvorschläge, Siri und vieles...