Vorläufiger Unfallbericht: Teslas Autopilot beschleunigte vor tödlicher Kollision

Nach dem tödlichen Unfall mit einem Tesla im Autopilot-Modus sind mehr Details bekanntgeworden. Frühere Vorwürfe Teslas gegen den Fahrer werden damit relativiert.

Artikel veröffentlicht am ,
Die Unfallstelle nach dem tödlichen Crash auf dem US-Highway 101
Die Unfallstelle nach dem tödlichen Crash auf dem US-Highway 101 (Bild: NTSB)

Der tödlich verunglückte Fahrer eines Tesla hat sich vor dem Unfall offenbar zu sehr auf die teilautomatisierten Funktionen seines Fahrzeugs verlassen. Das geht aus dem vorläufigen Unfallbericht der US-Verkehrssicherheitsbehörde NTSB hervor, der am Donnerstag veröffentlicht wurde. Demnach bemerkte der Fahrer bei dem Unfall am 23. März 2018 auf dem US-Highway 101 im Silicon Valley nicht, dass sein Elektroauto nicht mehr dem vorausfahrenden Auto folgte, sondern stattdessen frontal auf einen Spurteiler zusteuerte. Anstatt vor einem sogenannten Anpralldämpfer zu bremsen, beschleunigte der Tesla Model X 100D sogar noch.

Dem Bericht zufolge hatte der Fahrer, ein Apple-Mitarbeiter, auf dem Weg zur Arbeit den sogenannten Autopilot eingeschaltet. Dieser Abstandsregeltempomat mit Spurhalteassistent ist jedoch nur ein teilautomatisiertes Assistenzsystem, das die permanente Kontrolle durch den Fahrer erfordert. Demnach war der Autopilot auf der halbstündigen Fahrt vor dem Unfall viermal aktiviert worden, zuletzt ununterbrochen in den letzten knapp 19 Minuten vor dem Crash. In dieser Zeit wurde der Fahrer von der sogenannten Freihanderkennung zweimal optisch und einmal akustisch aufgefordert, die Hand ans Steuer zu legen. Allerdings erfolgte die letzte Warnung 15 Minuten vor dem Crash. Anders als ursprünglich spekuliert, hatte der Fahrer damit unmittelbar vor dem Unfall keine Warnungen des Systems ignoriert.

Tesla verliert vorausfahrendes Auto

In der letzten Minute vor dem Unfall hatte der Fahrer 34 Sekunden lang die Hand am Steuer. Doch in den letzten Sekunden vor der Kollision kontrollierte er offenbar nicht mehr das Verhalten des Fahrzeugs. Der Auswertung des Datenspeichers zufolge folgte der Tesla bis acht Sekunden vor dem Unfall noch mit einer Geschwindigkeit von knapp 105 Kilometern pro Stunde (km/h) dem vorausfahrenden Fahrzeug.

Eine Sekunde später zog das Auto jedoch nach links. Sechs Sekunden vor dem Unfall soll der Fahrer das letzte Mal das Lenkrad berührt haben, was Tesla bereits veröffentlich hatte. Vier Sekunden vor dem Unfall folgte der Tesla dem vorausfahrenden Auto gar nicht mehr. Statt dessen beschleunigte der Autopilot auf dem Spurteiler auf die zuvor eingestellte Maximalgeschwindigkeit von 120 km/h. Als der Tesla schließlich mit dem Anpralldämpfer kollidierte, fuhr er bereits 114 km/h. Bei dem Unfall wurde das Auto in zwei Teile gerissen und brannte aus. Der Fahrer starb im Krankenhaus an den Folgen seiner Verletzungen.

Autopilot erkennt Fahrbahnteiler nicht

Aus dem Bericht geht nicht hervor, warum der Tesla plötzlich nicht mehr dem vorausfahrenden Auto folgte und statt dessen nach links zog. Nach Angaben seiner Angehörigen soll sich der Fahrer bereits vor dem Unfall darüber beschwert haben, dass das Auto an dieser Stelle dazu neige, in Richtung Fahrbahnteiler zu ziehen. Warum der Fahrer vor dem Unfall genau dann das Lenkrad los ließ, als der Tesla schon nach links zog, wird sich wohl nicht mehr rekonstruieren lassen. Tesla hatte in einer umstrittenen Stellungnahme dem Fahrer die alleinige Schuld an dem Unfall gegeben. Dabei hatte das Unternehmen unter anderem darauf hingewiesen, dass der Fahrer beim Abstandsregeltempomaten nur den Mindestabstand zum vorausfahrenden Auto eingestellt hatte. Zudem habe der Fahrer fünf Sekunden lang und 150 Meter ungehinderte Sicht auf den Fahrbahnteiler gehabt.

Dass der Autopilot nicht in der Lage ist, plötzlich auftretende Fahrbahnteiler oder Baustellenschilder zu erkennen, hatte auch der Test eines Model S durch Golem.de gezeigt. Allerdings erklärt dies nicht, warum das Auto die Spur verlassen hat und nicht mehr dem vorausfahrenden Fahrzeug folgte. Möglicherweise wurde an dieser Stelle die Fahrbahnmarkierung nicht richtig erkannt. Die NTSB bestätigte in ihrem Bericht zudem, dass der Anpralldämpfer wenige Tage zuvor bei einem Unfall beschädigt worden war. Nach Ansicht Teslas erhöhte dies die Auswirkungen der Kollision.

Batterie entzündet sich nach fünf Tagen wieder

Der Bericht erwähnt zudem noch einige Probleme bei der Löschung der Autobatterie. Demnach musste die Feuerwehr etwa 750 Liter Wasser und Löschschaum einsetzen, um den brennenden Akku zu löschen. Etwa sechs Stunden nach dem Unfall fing die Batterie auf dem Aufbewahrungsgelände wieder an zu rauchen und zu zischen. Daraufhin wurde sie mit einer Thermalkamera überwacht, was sich als sinnvoll herausstellte, denn fünf Tage später, am 28. März 2018, fing die Batterie plötzlich wieder Feuer, so dass sie ein weiteres Mal gelöscht werden musste.

Insgesamt macht der Bericht deutlich, dass es lebensgefährlich sein kann, sich selbst auf Autobahnen oder autobahnähnlichen Straßen ohne Gegenverkehr und kreuzende Fahrzeuge auf Fahrassistenzsysteme wie Teslas Autopilot zu verlassen. Zwar sind die Vorgaben für die Freihanderkennung deutlich verschärft worden, doch scheinen die meist zuverlässig funktionierenden Systeme manche Fahrer dazu zu verleiten, das Verhalten nicht permanent zu kontrollieren. Zudem zeigt der Unfall, dass die derzeit eingesetzten Systeme von Tesla, die auf Kamera und Radar basieren, offenbar nicht zuverlässig genug sind, um autonom die Steuerung zu übernehmen.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


kaputt 06. Okt 2018

So ein Käse. Schau dir die zahlen und Berichte an. Sämtliche Hersteller nutzen ähnliche...

Dwalinn 11. Jun 2018

Gut zu wissen das wusste ich noch nicht . Okay ohne Autopilot aber wie sieht es mit dem...

ChMu 11. Jun 2018

Das ist es eben nicht. Das haette man gerne, ist aber nicht. Sich bewegende Hindernisse...

Dwalinn 11. Jun 2018

Ja und ein VW Diesel hat das Potenzial sauber (zumindest aus gesetzlicher Sicht) zu...



Aktuell auf der Startseite von Golem.de
Automobil
Keine zwei Minuten, um einen Tesla Model 3 zu hacken

Bei der Hacking-Konferenz Pwn2Own 2023 hat ein Forschungsteam keine zwei Minuten benötigt, um ein Tesla Model 3 zu hacken. Das brachte dem Team jede Menge Geld und einen neuen Tesla ein.

Automobil: Keine zwei Minuten, um einen Tesla Model 3 zu hacken
Artikel
  1. Fiktive Szenarien und Stereotype: AfD nutzt KI-Fotos für propagandistische Zwecke
    Fiktive Szenarien und Stereotype
    AfD nutzt KI-Fotos für propagandistische Zwecke

    Politiker der Alternative für Deutschland (AfD) nutzen realistische KI-Bilder, um Stimmung zu machen. Die Bilder sind kaum von echten Fotos zu unterscheiden.

  2. Java 20, GPT-4, Typescript, Docker: Neue Java-Version und AI everwhere
    Java 20, GPT-4, Typescript, Docker
    Neue Java-Version und AI everwhere

    Dev-Update Oracle hat Java 20 veröffentlicht. Enthalten sind sieben JEPs aus drei Projekten. Dev-News gab es diesen Monat auch in Sachen Typescript, Docker und KI in Entwicklungsumgebungen.
    Von Dirk Koller

  3. Socket: ChatGPT findet Malware in NPM- und Python-Paketen
    Socket
    ChatGPT findet Malware in NPM- und Python-Paketen

    Der Anbieter eines Sicherheitsscanners, Socket, nutzt den Chatbot von OpenAI auch zur Untersuchung von Paketen.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Crucial SSD 1TB/2TB bis -43% • RAM im Preisrutsch • RTX 4090 erstmals unter 1.700€ • MindStar: iPhone 14 Pro Max 1TB 1.599€ • SSDs & Festplatten bis -60% • AOC 34" UWQHD 279€ • 3 Spiele kaufen, 2 zahlen [Werbung]
    •  /