Hash-Wert aus Bildern

Aus diesen Daten wird ein Bild in einem HTML-Canvas-Element gemalt. Dabei werden dem Browser so wenige Vorgaben wie möglich gemacht, um die Zeichnungseigenschaften selbst nochmals als Merkmal zu integrieren. Der Inhalt des Canvas wird in eine Data-URL umgewandelt und offenbar als Hash-Wert genutzt. Dieser kann vom Javascript an bestehende URLs in der Webseite angehängt oder per Ajax an einen Server geschickt werden. Der Hash wird bei jedem Seitenaufruf neu generiert, in der Theorie bleibt er immer gleich, da die dazu verwendeten Informationen ebenfalls immer dieselben sind.

Das erzeugte Bild dient dabei lediglich als Mittel zur Bildung eines möglichst eindeutigen Hash-Wertes für den jeweiligen Browser. Da es eine Data-URL ist, ist es dem Empfänger des Hash-Wertes zwar möglich, diese Data-URL wieder in das eigentliche Bild umzuwandeln und über eine Texterkennung Daten auszulesen, in der Praxis wird das aber stark erschwert. Denn die Profildaten werden im Bild überlagernd geschrieben und die Bildgröße ist fixiert. Das Bild muss eine feste Größe aufweisen, um einen eindeutigen Hash-Wert von konstanter Länge zu bekommen.

Kaum Abwehrmöglichkeiten

Es gibt für Anwender kaum Möglichkeiten, sich gegen die Tracking-Methode zu wehren. Da es sich nicht um ein Cookie handelt, nützt es nichts, sie im Browser zu verbieten. Der Hash wird clientseitig ebenfalls nicht gespeichert, demnach funktioniert Canvas Fingerprinting auch im Inkognitomodus eines Browsers. Im Juni 2012 hat bereits das Tor-Projekt reagiert und eine entsprechende Funktion in das Browser-Bundle integriert, die Nutzer warnt, wenn eine Webseite versucht, ein Canvas Fingerprint zu erstellen. Darüber hinaus können Nutzer nur Noscript einsetzen oder Javascript komplett deaktivieren, um Canvas Fingerprinting zu verhindern. Da sich die Javascripts der verschiedenen Anbieter unterscheiden, lassen sie sich nur schwer gezielt unterbinden.

Fingerprinting muss transparent sein

Ligatus erklärte uns, das Canvas Fingerprinting habe nur "im Rahmen eines limitierten Testlaufs stattgefunden, der inzwischen beendet ist." Während des Testlaufs seien ausschließlich anonyme IDs ohne Rückschlussmöglichkeit auf konkrete User gesammelt und auch in keiner Weise die Privatsphäre von Anwendern verletzt worden. "Es gibt aktuell keine Pläne, diese Technologie bei uns einzusetzen, da sie keinen Vorteil für die von Ligatus eigenentwickelten Optimierungsalgorithmen bringt, die sich auf die generelle Erkennung von Mustern im Nutzungsverhalten stützen und nicht auf Cookies oder die Wiedererkennung konkreter User setzen", heißt es weiter.

Der Datenschützer Thilo Weichert sagte dazu: "Auf das Canvas-Fingerprinting ist nicht die Cookie-Regelung im europäischen Telekommunikationsdatenschutzgesetz anwendbar (Art. 5 Abs. 3), wohl aber § 15 Abs. 3 des Telemediengesetzes (TMG). Der Fingerprint ist im Prinzip ein Pseudonym. Auf Zweck und Widerspruchsmöglichkeit muss also hingewiesen werden. Wenn dies nicht passiert, ist das Angebot unzulässig."

Addthis stellt immerhin ein Opt-out-Cookie bereit.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Privacy: Unsichtbares Tracking mit Bildern statt Cookies
  1.  
  2. 1
  3. 2


stuempel 28. Jul 2014

Ich habe o.g. mal testweise installiert, siehe https://github.com/ghostwords/chameleon...

stuempel 28. Jul 2014

/// (Bitte löschen)

Anonymer Nutzer 28. Jul 2014

Ähm? ^^ Sag ich doch! Darum NoScript und schon führt man kein JS mehr aus :-) Genau...

GottZ 28. Jul 2014

es gibt auch noch den localstorage und flash cookies. eine schriftart über canvas zu...



Aktuell auf der Startseite von Golem.de
Automobil
Keine zwei Minuten, um einen Tesla Model 3 zu hacken

Bei der Hacking-Konferenz Pwn2Own 2023 hat ein Forschungsteam keine zwei Minuten benötigt, um ein Tesla Model 3 zu hacken. Das brachte dem Team jede Menge Geld und einen neuen Tesla ein.

Automobil: Keine zwei Minuten, um einen Tesla Model 3 zu hacken
Artikel
  1. Fiktive Szenarien und Stereotype: AfD nutzt KI-Fotos für propagandistische Zwecke
    Fiktive Szenarien und Stereotype
    AfD nutzt KI-Fotos für propagandistische Zwecke

    Politiker der Alternative für Deutschland (AfD) nutzen realistische KI-Bilder, um Stimmung zu machen. Die Bilder sind kaum von echten Fotos zu unterscheiden.

  2. Italien: Datenschutzbehörde untersagt Betrieb von ChatGPT
    Italien
    Datenschutzbehörde untersagt Betrieb von ChatGPT

    Dem ChatGPT-Entwickler OpenAI könnte eine Millionenstrafe drohen. Die GPDP bemängelt Probleme beim Jugend- und Datenschutz.

  3. Java 20, GPT-4, Typescript, Docker: Neue Java-Version und AI everwhere
    Java 20, GPT-4, Typescript, Docker
    Neue Java-Version und AI everwhere

    Dev-Update Oracle hat Java 20 veröffentlicht. Enthalten sind sieben JEPs aus drei Projekten. Dev-News gab es diesen Monat auch in Sachen Typescript, Docker und KI in Entwicklungsumgebungen.
    Von Dirk Koller

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Crucial SSD 1TB/2TB bis -43% • RAM im Preisrutsch • RTX 4090 erstmals unter 1.700€ • MindStar: iPhone 14 Pro Max 1TB 1.599€ • SSDs & Festplatten bis -60% • AOC 34" UWQHD 279€ • 3 Spiele kaufen, 2 zahlen [Werbung]
    •  /