Zum Hauptinhalt Zur Navigation

Sicherheitssysteme: Tesla Model 3 erkennt Kinder-Dummy mehrfach nicht

Tesla scheint keine Kinder auf der Fahrbahn zu erkennen. Dreimal wurde ein Dummy überfahren.
/ Michael Linden
183 Kommentare News folgen (öffnet im neuen Fenster)
Tesla überfährt Kinder-Dummy (Bild: The Dawn Project)
Tesla überfährt Kinder-Dummy Bild: The Dawn Project

Das Sicherheitsprojekt The Dawn Project hat nach eigenen Angaben Teslas Full-Self-Driving auf einer Teststrecke ausprobiert. Einen Kinder-Dummy auf der Fahrbahn erkannte das Model 3 nicht, sondern überfuhr es mit 40 km/h. Und das gleich mehrmals hintereinander.

Wie Dan O'Dowd von The Dawn Project mitteilte(öffnet im neuen Fenster) , hält er Teslas FSD-Software für die schlechteste kommerzielle Software, die er je gesehen hat. Er stuft die Software als potentiell tödlich ein. O'Dowd ist US-Milliardär, Kandidat für den US-Senat und Gründer von Green Hills Software.

Laut den Sicherheitsaktivisten kann die Software keine Objekte in Kindergröße erkennen(öffnet im neuen Fenster) . Es handelte sich um die FSD Version 10.12.2, die am 1. Juni 2022 veröffentlicht wurde. Das Fahrzeug fuhr eine etwa 110 Meter lange Strecke entlang, die mit Kegeln abgeteilt war. Am Ende stand ein Kinder-Dummy. Der Test wurde dreimal wiederholt, jedes Mal wurde die Puppe überfahren. Es gibt allerdings Zweifel daran(öffnet im neuen Fenster) , dass der Fahrer zumindest in dem aufgezeichneten Innenraumvideo das Full-Self-Driving-System aktiviert hat.

Das Fahrzeug versuchte aber auch keine Gefahrenbremsung. Der Notbremsassistent sprach nicht an und dieser ist nicht vom Full-Self-Driving-System anhängig.

"Teslas Full-Self-Driving-Software fällt bei diesem einfachen und sicherheitskritischen Test wiederholt durch, mit potenziell tödlichen Ergebnissen" , teilten die Tester mit, die ihr Testszenario ausgiebig dokumentiert haben.

Der Fahrer soll für die gesamte Testdauer die Hände nicht am Lenkrad gehabt haben. Tesla betont in den Hinweisen zu seinem Assistenzpaket Autopilot und zum Full Self Driving stets, dass der Fahrer eingriffsbereit sein muss.

Von Tesla gibt es noch keine Stellungnahme zu dem Thema.

Im Februar 2022 zeigte der Youtube-Kanal AI Addict eine Fahrt im kalifornischen San Jose mit zahlreichen Ampeln, mehrspurigen Verkehrsführungen und undeutlichen Straßenmarkierungen. An Stoppschildern kommt das Fahrzeug zu einem vollständigen, vorschriftsgemäßen Halt, hat jedoch in anderen Situationen eine rote Ampel überfahren. Das Fahrzeug versucht sogar, in eine Straßenbahn-Spur hineinzufahren. In der Rechtsabbieger-Situation, in der das kamerabasierte automatisierte Fahren versagt, stehen auf der rechten Seite mehrere grün-weiße Pfosten zur Abgrenzung eines Radwegs auf der Straße. Diese scheint der Tesla nicht zu erkennen und fährt einen zu spitzen Winkel, bis er schließlich mit niedriger Geschwindigkeit mit den Pfosten kollidiert.

Das Fahrzeug fuhr nach Angaben des Youtube-Kanals mit der damals neuesten Softwareversion von Tesla, der Full Self-Driving Beta 10.10 Version (2021.44.30.15).

Selbst wenn das mittlerweile 12.000 US-Dollar teure System gekauft wurde, lässt es sich derzeit nicht einfach starten. Der Fahrer muss zunächst einen Sicherheitscheck bestehen. Tesla analysiert die Fahrdaten des Fahrzeugs, um die Eignung zu bestimmen. Den errechneten Sicherheitswert können Besitzer in ihrer Tesla-App einsehen.

Nachtrag vom 10. August 2022, 22:01 Uhr

Das Blog Electrek hat in Videoaufnahmen des Innenraums entdeckt, dass der FSD in dem Moment der Aufnahme nicht aktiviert war. Sollte er gar nicht aktiv gewesen sein, hat aber zumindest der Notbremsassistent des Fahrzeugs nicht reeagiert.


Relevante Themen