• IT-Karriere:
  • Services:

Sicherheit: Tesla-Autopilot lässt sich in den Gegenverkehr steuern

Wissenschaftler des chinesischen Konzerns Tencent haben untersucht, wie leicht sich Teslas Autopilot in die Irre führen lasse. Erschreckendes Ergebnis: Mit leicht manipulierten Straßenmarkierungen steuert das Auto in den Gegenverkehr.

Artikel veröffentlicht am ,
Tesla-Autopilot
Tesla-Autopilot (Bild: Keen Security Lab)

Keen Security Lab heißt die Sicherheitsabteilung des chinesischen Internetkonzerns Tencent, der hinter dem Messenger Wechat steht. Die Forscher von Keen haben herausgefunden, wie leicht das Assistenzsystem Autopilot von Tesla getäuscht werden kann. Dabei wurde der Autopilot in Version 2018.6.1 getestet.

Stellenmarkt
  1. TWINSOFT GmbH & Co. KG, Ratingen bei Düsseldorf
  2. Rundfunk Berlin-Brandenburg (rbb), Köln, Potsdam

Die Wissenschaftler manipulierten Fahrbahnmarkierungen, um das System in die Irre zu führen. Der Autopilot nutzt diese Hilfen, um sich auf der Straße zu orientieren. Das klappt gut, sofern diese Markierungen vorhanden sind. Doch was passiert, wenn diese absichtlich oder unabsichtlich falsch sind? Die Forscher brachten am rechten Fahrbahnrand Linien an, die immer wieder zur Fahrbahnmitte führten. Das Auto folgte und bewegte sich in Richtung Gegenfahrbahn.

Dazu mussten die Forscher nicht mal weiße Streifen auf der Straße anbringen. Es genügte nach ihren Angaben, kleine Aufkleber zu nutzen. Ihre Erkenntnisse publizierten sie in der englischsprachigen Studie Experimental Security Research of Tesla Autopilot ( PDF). Sie hoffen, dass die Hersteller die durch ihre Tests aufgedeckten möglichen Fehler berücksichtigen und die Stabilität und Zuverlässigkeit ihrer Produkte verbessern.

Nachtrag vom 2. April 2019, 15:59 Uhr

Aufgrund der Reaktionen auf den Artikel haben wir folgende Ergänzung hinzugefügt: Tencent wollte zeigen, dass Teslas (Spur-)Autopilot nur auf der Auswertung der visuellen Marker basiert und dass dieser sehr leicht durch falsche Fahrbahnmarkierungen beeinflusst werden kann. Diese müssen keinen terroristischen Hintergrund haben, sondern können auch in Form von Fehlern entstanden sein. Außerdem ist immer die Frage, was als Fahrbahnmarkierung erkannt wird - es könnten ja auch Farbspritzer sein, die dort aus anderen Gründen entstanden sind. Der Autopilot hat bestimmte Parameter, in denen er betrieben werden darf. Da auch eine Ampelerkennung drin ist, ist absehbar, dass er auch in anderen Umfeldern als dem Highway/Autobahn betrieben werden soll.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Anzeige
Spiele-Angebote
  1. 4,99€
  2. (u. a. Warhammer 40,00€0: Gladius - Relics of War für 23,79€, Aggressors: Ancient Rome für 17...
  3. (-29%) 19,99€
  4. 10,48€

plutoniumsulfat 06. Apr 2019

Das liegt in erster Linie schon mal daran, dass die Systeme anders aufgebaut sind. Die...

Bitschnipser 03. Apr 2019

Es gibt da einige Besonderheiten, die man erstmal wirklich begreifen muss. Da scheitern...

Brainfreeze 03. Apr 2019

Nur weil es mittlerweile neuere Versionen der Software gibt, bedeutet das nicht, dass...

Brainfreeze 03. Apr 2019

Wenn ich mir so die ganzen Warnhinweise im Handbuch des Teslas bei der Erklärung der...

SanderK 03. Apr 2019

Also Bierernst sollte man den Bericht ja nun wirklich nicht nehmen. Sonst fand ich Ihn...


Folgen Sie uns
       


Elektrifizierte Tiefgarage von Netze BW angesehen

Wir haben uns ein Testprojekt für eine elektrifizierte Tiefgarage im baden-württembergischen Tamm zeigen lassen.

Elektrifizierte Tiefgarage von Netze BW angesehen Video aufrufen
    •  /