Autonomes Fahren: Forscher täuschen Straßenschilderkennung mit KFC-Schild
Statt Schnellgeschwindigkeit langsames Fahren und statt Fast Food eine Vollbremsung: Ein Forschungsprojekt beweist, dass autonome Fahrzeuge Verkehrsschilder schnell falsch interpretieren können. Dazu braucht es nur ein wenig Farbe oder Witterung.

Forscher der Universitäten Princeton und Purdue haben in einer wissenschaftlichen Arbeit gezeigt, wie einfach Erkennungssysteme in autonomen Fahrzeugen überlistet werden können. Das Projekt nennen sie Deceiving Autonomous Cars with Toxic Signs (Darts) - also das Täuschen autonomer Fahrzeuge mit irreführenden Verkehrsschildern.
Ein Angriff soll zu 90 Prozent erfolgreich sein, auch wenn den Entwicklern kein Einblick in den Quelltext des Algorithmus vorliegt. Im Verlauf des Projekts konnten sie sogar ein Filialenschild der Franchise-Kette Kentucky Fried Chicken nutzen, um es von der Bilderkennung als Stoppschild interpretieren zu lassen - solange es auf der Höhe eines Verkehrschildes hängt.
Ein Schild muss dazu lediglich nach einem bestimmten Muster verändert werden, um ein Erkennungssystem zu täuschen. Auf Projektbildern ist beispielsweise ein Tempolimit-Schild mit Farbe verändert worden. Ein Machine-Learning-Algorithmus erkennt dieses als Stoppschild. Ein anderes Schild wird so verändert, dass statt 120 mph nur 30 mph erkannt werden. Auch perspektivische Unterschiede und andere Blickwinkel können zu Fehlinterpretationen führen.
Eventuell tödliche Folgen für Fahrer und Passanten
Eine solche Veränderung kann auf der Straße natürlich auftreten, beispielsweise durch Witterungsbedingungen oder Vandalismus. Die Forscher haben jedoch auch eigene Schilder erstellt, die es so im Straßenverkehr nicht gibt. Der Grundgedanke bleibt aber: Es ist sehr einfach, eine aufkommende und oft beworbene Technik in Fahrzeugen wie die Erkennung von Schildern zu täuschen. Die Folgen können für den Fahrer oder Passanten tödlich sein, wenn etwa das eigene autonome Auto auf der Schnellstraße plötzlich mit einer Vollbremsung anhält.
Solche Arten der Täuschung durch leichte Veränderung des zu analysierenden Objektes haben Forscher auch im Bereich der Audiosignalerkennung erfolgreich umsetzen können. So können Sprachassistenten durch für Menschen kaum hörbare eingespeiste Fremdsignale manipuliert werden. Bei der Entwicklung künstlicher Intelligenz sollten solche Angriffsvektoren also bedacht werden.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Dann lies mal den aktuellen XKCD.
https://xkcd.com/1958/
Der, der das dahinterherlaufende Kind nicht totfahren will?
Die Probleme wird man immmer haben, ein Reifen eines Autos kann bei 140km/h platzen, das...