Original-URL des Artikels: https://www.golem.de/news/sicherheit-tesla-autopilot-laesst-sich-in-den-gegenverkehr-steuern-1904-140387.html    Veröffentlicht: 02.04.2019 07:16    Kurz-URL: https://glm.io/140387

Sicherheit

Tesla-Autopilot lässt sich in den Gegenverkehr steuern

Wissenschaftler des chinesischen Konzerns Tencent haben untersucht, wie leicht sich Teslas Autopilot in die Irre führen lasse. Erschreckendes Ergebnis: Mit leicht manipulierten Straßenmarkierungen steuert das Auto in den Gegenverkehr.

Keen Security Lab heißt die Sicherheitsabteilung des chinesischen Internetkonzerns Tencent, der hinter dem Messenger Wechat steht. Die Forscher von Keen haben herausgefunden, wie leicht das Assistenzsystem Autopilot von Tesla getäuscht werden kann. Dabei wurde der Autopilot in Version 2018.6.1 getestet.

Die Wissenschaftler manipulierten Fahrbahnmarkierungen, um das System in die Irre zu führen. Der Autopilot nutzt diese Hilfen, um sich auf der Straße zu orientieren. Das klappt gut, sofern diese Markierungen vorhanden sind. Doch was passiert, wenn diese absichtlich oder unabsichtlich falsch sind? Die Forscher brachten am rechten Fahrbahnrand Linien an, die immer wieder zur Fahrbahnmitte führten. Das Auto folgte und bewegte sich in Richtung Gegenfahrbahn.

Dazu mussten die Forscher nicht mal weiße Streifen auf der Straße anbringen. Es genügte nach ihren Angaben, kleine Aufkleber zu nutzen. Ihre Erkenntnisse publizierten sie in der englischsprachigen Studie Experimental Security Research of Tesla Autopilot ( PDF). Sie hoffen, dass die Hersteller die durch ihre Tests aufgedeckten möglichen Fehler berücksichtigen und die Stabilität und Zuverlässigkeit ihrer Produkte verbessern.

<#youtube id="6QSsKy0I9LE">

Nachtrag vom 2. April 2019, 15:59 Uhr



Aufgrund der Reaktionen auf den Artikel haben wir folgende Ergänzung hinzugefügt: Tencent wollte zeigen, dass Teslas (Spur-)Autopilot nur auf der Auswertung der visuellen Marker basiert und dass dieser sehr leicht durch falsche Fahrbahnmarkierungen beeinflusst werden kann. Diese müssen keinen terroristischen Hintergrund haben, sondern können auch in Form von Fehlern entstanden sein. Außerdem ist immer die Frage, was als Fahrbahnmarkierung erkannt wird - es könnten ja auch Farbspritzer sein, die dort aus anderen Gründen entstanden sind. Der Autopilot hat bestimmte Parameter, in denen er betrieben werden darf. Da auch eine Ampelerkennung drin ist, ist absehbar, dass er auch in anderen Umfeldern als dem Highway/Autobahn betrieben werden soll.  (ad)


Verwandte Artikel:
Autonomes Fahren: Tesla will verkaufte Autos mit neuem Computer nachrüsten   
(01.04.2019, https://glm.io/140367 )
Hackerwettbewerb: Tesla Model 3 geknackt   
(25.03.2019, https://glm.io/140213 )
Michael Schwekutsch: Apple übernimmt Teslas Leiter für Elektroantriebe   
(01.04.2019, https://glm.io/140365 )
Assistenzsystem: Autopilot beim Model 3 in Europa nicht mehr deaktiviert   
(08.02.2019, https://glm.io/139265 )
EU: Unfall-Fahrtenschreiber in Autos ab 2022 Pflicht   
(27.03.2019, https://glm.io/140279 )

© 1997–2019 Golem.de, https://www.golem.de/