Original-URL des Artikels: https://www.golem.de/news/zulassung-autonomer-autos-die-laengste-fahrpruefung-des-universums-1611-124139.html    Veröffentlicht: 03.11.2016 12:03    Kurz-URL: https://glm.io/124139

Zulassung autonomer Autos

Die längste Fahrprüfung des Universums

88-mal zur Sonne und wieder zurück: So lang müsste theoretisch eine Teststrecke für autonome Autos sein. Eine starke Motivation für Hersteller und Behörden, emsig nach anderen Lösungen zu suchen.

Wohl jeder Autofahrer kann sich noch an diese aufregende Dreiviertelstunde erinnern: In der praktischen Führerscheinprüfung dem strengen Prüfer zu zeigen, dass man einen Pkw sicher durch den Verkehr schleusen kann - rückwärts einparken inklusive. Dabei war klar: Erst die anschließende Praxis machte aus dem Fahrschüler einen sicheren Autofahrer. Doch wie sollen hochautomatisierte oder gar autonome Autos einmal nachweisen, dass sie möglichst alle Verkehrssituationen sicher beherrschen? Eine 45-minütige Testfahrt reicht da sicher nicht aus. Während Wissenschaftler Milliarden an erforderlichen Testkilometern ausrechnen, will die Autoindustrie auch mit Hilfe von Simulation den Sicherheitsnachweis führen. Tödliche Unfälle durch technische Fehler, wie jüngst bei einem Tesla, sollen dadurch möglichst ausgeschlossen werden.

Die Bundesregierung hat inzwischen die Zulassungsproblematik erkannt und zu Beginn dieses Jahres das Projekt Pegasus ins Leben gerufen. Pegasus ist in diesem Fall ein Akronym für das "Projekt zur Etablierung von generell akzeptierten Gütekriterien, Werkzeugen und Methoden sowie Szenarien und Situationen zur Freigabe hochautomatisierter Fahrfunktionen". Was ziemlich kompliziert klingt - und es auch ist. Es ist daher kein Zufall, dass Pegasus eine Laufzeit von knapp vier Jahren hat und damit erst Ende 2019 abgeschlossen sein dürfte. Bis dahin sollte also feststehen, welche Anforderungen Autos mit einem Autobahnpiloten zu erfüllen haben und wie das nachgewiesen werden soll.

Fehler können tödliche Folgen haben

Wie sinnvoll solche Tests sind, hat der tödliche Unfall mit einem Tesla Model S im vergangenen Mai gezeigt. Dabei hielt das Elektroauto im Autopilotmodus einen querenden Sattelschlepper für ein Verkehrsschild und ignorierte es daher. Wie kann so etwas möglich sein und wie lässt sich eine solche Fehlinterpretation der Sensorauswertung testen und verhindern? Kritiker werfen Tesla-Chef Elon Musk vor, unfertige Produkte auszuliefern und seine Kunden wider Willen zu Testfahrern zu machen.

Diese Frage nach der Zulassung stellt sich vor allem dann, wenn in wenigen Jahren die ersten Autos bestimmte Verkehrssituationen völlig allein bewältigen sollen. Schließlich darf sich der Fahrer in solchen hoch- und vollautomatisierten Autos "vom Verkehrsgeschehen und der Fahrzeugsteuerung abwenden", wie es in einem Entwurf des Bundesverkehrsministeriums zur Anpassung des Straßenverkehrsgesetzes heißt. Eine falsche Sensorwahrnehmung, eine Fehlinterpretation der Daten sowie eine unangemessene Lenkung oder Bremsung könnten zu schweren Unfällen auf der Autobahn führen. Bei den aktuellen Assistenzsystemen ist immer noch der Fahrer als "Rückfallebene" vorgesehen und verantwortlich. Verlässt er sich hingegen zu sehr auf die Fähigkeiten des Autos, kann das, wie beim Tesla-Unfall, tödliche Folgen haben.

Was leistet der Mensch als "Beifahrer"

Frank Köster vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) in Braunschweig ist federführend für das Projekt Pegasus. Zusammen mit 16 weiteren Unternehmen und wissenschaftlichen Einrichtungen will er darin folgende "Leitfragen" klären: "Wie gut müssen automatisierte Fahrzeuge sein? Wie zeigen wir zuverlässig, dass die Fahrzeuge dies auch sind?" Allerdings geht es bei Pegasus nicht alleine um die Fähigkeiten der Technik. Eine zentrale Frage lautet zudem: "Was leistet der Mensch?", und wie können Fahrer und Fahrzeug auf sinnvolle Weise interagieren.

So will Köster mit seinen Forschungen unter anderem klären, wie viel Zeit das System dem Fahrer einräumen muss, um das Steuer in einer schwierigen Verkehrssituation wieder zu übernehmen. "Was ist die dafür angemessene Zeit und welche Aufgabe kann man als Fahrer übernehmen, wenn man in eine Nebenaufgabe eingebunden war? Pegasus soll die menschliche Leistungsfähigkeit beim Fahren genauer definieren, von der man bei der Gestaltung von Übergabe- beziehungsweise Übernahmeprozeduren ausgehen kann", sagte der Informatiker im Gespräch mit Golem.de.

Die Antwort auf diese Frage wirkt sich wiederum entscheidend auf die Anforderungen an die Fahrzeugtechnik aus. Denn es macht einen großen Unterschied auf der Autobahn aus, ob ein Fahrer nach 5, 10 oder erst nach 15 Sekunden fahrbereit sein muss. Bei Tempo 130 legt das Auto in fünf Sekunden 180 Meter zurück, in 15 Sekunden bereits mehr als einen halben Kilometer.

Astronomisch lange Teststrecken

Sollten diese Kriterien feststehen, ist immer noch nicht klar, wie die automatisierten Funktionen möglichst umfassend überprüft werden müssen. Paradoxerweise ist die Zahl der theoretischen Testkilometer umso größer, je sicherer die Verkehrssituation ist. Entscheidend ist schließlich, wie sich Fahrzeuge in kritischen Situationen verhalten. Wenn es diese, wie auf der Autobahn, nur selten gibt, müssten theoretisch umso mehr Testkilometer gefahren werden.

Denn ein hochautomatisierter Autobahnpilot ist weit mehr als ein Abstandsregeltempomat, der zusätzlich überholen kann. Er muss auch dann selbständig lenken, wenn ein Reifen platzt, der Vordermann plötzlich Ladung verliert oder ein Reh auf die Fahrbahn springt. Ein unerwartetes Stauende ist da noch die leichteste Übung. Zudem reichen die Sensoren noch längst nicht so weit wie das menschliche Auge.

Sind die Testanforderungen nicht zu erfüllen?

Nach Überlegungen des Darmstädter Fahrzeugtechnikexperten Hermann Winner hängt die Zahl der Testkilometer davon ab, nach wie vielen gefahrenen Kilometern es einen tödlichen Unfall gibt. "Für den Autobahnpiloten folgt aus den aktuellen Zahlen des Statistischen Bundesamtes ein Vergleichswert von 662 Millionen Kilometern zwischen zwei Unfällen mit Getöteten. Dementsprechend müssten 6,62 Milliarden Testkilometer auf der Autobahn absolviert werden, um den dargestellten Bedingungen zu entsprechen", schreibt er in einer Studie von 2015.

Diese Distanz entspricht 44 mal der Entfernung zwischen Erde und Sonne. Zum Vergleich: Vor der Freigabe der Assistenzsysteme in der früheren Mercedes-Benz E-Klasse (W212) wurden "lediglich" 36 Millionen Testkilometer absolviert. Nur ein halbes Prozent der von Winner geforderten Distanz. Die statistischen Überlegungen zeigten, "dass die Freigabe zur Herausforderung, wenn nicht sogar zur Falle für das autonome Fahren werden kann", sagt Winner. Dabei fällt auf, dass der Darmstädter Professor die Zahl der Testkilometer in den vergangenen Jahren immer höher gesetzt hat.

Waren es 2014 noch 240 Millionen Kilometer, nannte er zuletzt sogar 13,3 Milliarden Kilometer. Für diese Strecke bräuchte ein Lichtstrahl mehr als 13 Stunden. Eine wahrhaft astronomische Distanz.

Das perfekte Auto wird es nicht geben

Ganz gleich, wie groß diese Zahlen sind: Die Hersteller können sie unter wirtschaftlichen Bedingungen kaum noch mit realen Fahrzeugen testen. Zudem soll es nicht das Ziel sein, das "perfekte" selbstfahrende Auto zu entwickeln. "Technik ist in den seltensten Fällen vollkommen perfekt. Und wenn Sie das anstreben wollen, müssen Sie einen enorm hohen Aufwand betreiben, der praktisch gesehen für einen einzelnen Nutzer oft gar keinen messbaren Mehrwert bringt, sondern nur die Theorie befriedigt", erläutert Köster. Dabei stelle sich die Frage: "Was ist das Güteniveau, das Sie für die Fahrzeuge erreichen müssen?"

Das Problem: Die Zahl der möglichen Verkehrssituationen ist unbegrenzt, doch das Auto soll ebenso wie der menschliche Fahrer mit möglichst allen zurechtkommen. "Da sind einige Dinge, die sind hochrelevant, weil sie oft in der Praxis erlebt werden. Da gibt es aber auch Ereignisse, die passieren nur sehr selten oder in der Theorie, so dass sie diese wahrscheinlich nie mit einem Fahrzeug erleben werden", sagt Köster. Die Forschung müsse daher viel Energie investieren, um die relevanten Situationen zunächst zu ermitteln.

Simulation als Ausweg

Wissenschaftler wie Winner und Köster sehen darin eine Möglichkeit, die Zahl der Testsituationen zu reduzieren. Wenn ein Fahrzeug kritische Situationen meistern kann, dann beherrscht es wohl auch einfache Verkehrslagen. Das heißt, wenn vor dem Überholen ein Auto rechtzeitig erkannt wird, das mit 200 km/h von hinten heranrauscht, dürfte das auch bei langsameren Fahrzeugen der Fall sein. Gleichzeitig stellt sich die Frage, wie umfangreich solche nicht gerade ungefährlichen Situationen noch im realen Autoverkehr getestet werden können. Schließlich geht es dabei um die Interaktion verschiedener Fahrzeuge, die bislang weitgehend dem menschlichen Fahrer überlassen war.

Entscheidende Hilfe sollen dabei Simulationsverfahren leisten. So liegt der Fokus beim Projekt Pegasus "insbesondere auf der Maximierung des Anteils simulations- bzw. labor-/prüfstandbasierter Tests, um umfassende Tests bereits sehr früh in Entwicklungsprozesse zu integrieren und den Aufwand auf Testgeländen und im Feld möglichst gering zu halten", heißt es in einer Projektbeschreibung.

Genutzt werden hierbei die Verfahren Vehicle-in-the-Loop (ViL) und Software-in-the-Loop (Sil). So wird ViL bereits seit Jahren genutzt, um beim Testen von Assistenzsystemen andere Fahrzeuge zu simulieren. Beim SiL-Verfahren wird hingegen auch die Hardware simuliert. So sollen schon in einer frühen Entwicklungsphase Fehler erkannt werden, was bei der anschließenden Entwicklung Kosten sparen kann.

Komplettes Fahrzeug in der Simulation

Forschungsarbeit zur Simulation liefert auch das DLR. "Wir können ein Vollfahrzeug in eine Simulation integrieren. Dann erhalten die Fusionssysteme, die die Situation aufbereiten, die Informationen aus der Simulation und nicht aus der Hardware-Sensorik", sagt Köster. Die Aktuatorik wie Lenken, Bremsen und Beschleunigen sei auch ausgeblendet. "Aber alles das, was ansonsten in dem Fahrzeug zum Beispiel eine verkehrliche Situation analysiert, Entscheidungen trifft, mit dem Menschen interagiert, ist voll testbar", erläutert Köster. Die Güte der Sensorsimulation der Außenwelt hänge nach der Erfahrung des DLR heute noch stark von den Sensoren ab: "Zum Beispiel haben wir bei kamerabasierter Sensorik in der Vergangenheit mit viel Aufwand einiges erreichen können."

Doch wie weit dürfen solche Verfahren gehen? "Das ist eine der großen Herausforderungen im Bereich der Simulation. Wie definieren Sie in der Simulation die Grenze?", fragt Köster. "Was lässt sich eigentlich entsprechend zur Realität testen und was nicht?" Schwierig wird dies beispielsweise bei der Sensorik. Es lässt sich kaum simulieren, welche Signale die einzelnen Sensortypen bei bestimmten Wetter- oder Lichtverhältnissen noch wahrnehmen und ob sie die Umgebung noch adäquat erkennen können. So ist der tödliche Tesla-Unfall angeblich darauf zurückzuführen, dass die Kamera durch die tiefstehende Sonne geblendet wurde und den kreuzenden Lkw nicht erkennen konnte.

Hersteller setzen auf Simulation

Die von Golem.de befragten deutschen Autohersteller Audi, BMW, Daimler und Volkswagen haben sich schon intensiv mit diesen Fragen beschäftigt. Selbstredend gehen sie nicht davon aus, mit ihren selbstfahrenden Autos in die "Freigabefalle" zu tappen. "Ein rein statistischer Nachweis auf Basis von vielen Testkilometern, wie ihn Winner anspricht, ist hierbei tatsächlich nicht zielführend", teilte Daimler mit. "Vielmehr müssen zur Freigabe unterschiedlichste Prüf- und Testprogramme eingesetzt und aufeinander abgestimmt werden. Dabei werden insbesondere die Methoden der virtuellen Absicherung am Computer und an Prüfständen zukünftig eine zunehmend wichtige Rolle spielen."

Auch Volkswagen mit seiner Konzerntochter Audi erhofft sich beim Testen "eine hohe Effizienzsteigerung durch den vermehrten Einsatz von Simulationen und automatisierten Testprozeduren". Das Testen von einzelnen Sensormodulen werde durch den Einsatz von umfangreichen Datenbanken verbessert. Den Unternehmen zufolge "steigt der Anteil an Simulationen gegenüber den Realtests kontinuierlich". Allerdings soll das nicht dazu führen, dass Realtests ersetzt werden können.

Tesla testet im Realverkehr

Wie es anders gehen könnte, zeigt einmal mehr der Elektroautobauer Tesla. Statt die neue Hard- und Software aufwendig auszuprobieren, sollen die Autokäufer selbst die erforderlichen Testkilometer sammeln. Dazu will das Unternehmen schon ab Werk künftig alle Autos mit der erforderlichen Hardware für selbstfahrende Systeme ausstatten. Doch Tesla will die entsprechende Software vorerst nicht aktivieren, sondern nur die Daten sammeln und analysieren. Mit Millionen von real gefahrenen Kilometern soll das System weiter kalibriert werden, "um bedeutende Verbesserungen von Sicherheit und Komfort zu erzielen".

Eine kreative und originelle Idee, die aber zwei große Nachteile hat. Sollten Tesla oder die Zulassungsbehörden feststellen, dass die geplante Hardware mit acht Kameras, zwölf Ultraschallsensoren und nur einem Radar für die geplanten Zwecke nicht ausreicht, wären vermutlich schon Zigtausende Autos damit ausgestattet. Zudem will das Unternehmen für den sogenannten Schattenmodus wichtige Sicherheitsfeatures in diesen Fahrzeugen abschalten. Dazu zählt beispielsweise das Notbremssystem, das Auffahrunfälle verhindern soll. Aber auch die Kollisionswarnung, der Spurhalteassistent und der Abstandsregeltempomat werden deaktiviert. Auf solch eine Idee würden die deutschen Hersteller vermutlich nicht einmal betrunken auf der Weihnachtsfeier kommen.

Wer legt die Güteniveaus fest?

Aber ganz gleich wie getestet wird: Für alle Hersteller stellt sich die Frage, wer die geforderten Güteniveaus der Autos festlegt und wie die Einhaltung der Kriterien überprüft wird. BMW will diese Gütekriterien weiterhin selbst bestimmen. "Entscheidend für das hochautomatisierte Fahren ist, dass übergeordnete Sicherheitsziele erreicht werden", teilte der Münchner Konzern mit. Es dürfen daher "keine neuen, 'reproduzierbaren' Unfallmuster im Realverkehr auftreten". Neben dem deutschen Projekt Pegasus gibt es dazu noch die europäische Initiative Pears (Prospective Effectiveness Assessment for Road Safety (Vorausschauende Effektivitätseinschätzung der Verkehrssicherheit)), in der Vorgehen und Methoden zur Sicherheitsbeurteilung industrieweit standardisiert werden sollen.

Weder von Pegasus noch von Pears sind aber vorerst konkrete Ergebnisse zu erwarten. Allerdings will Audi schon "in der nahen Zukunft" für den A8 ein pilotiertes System anbieten, das "auf exakt definierten Strecken und unter bestimmten Bedingungen die Fahraufgabe komplett übernehmen können" soll. Woher sollen bis dahin die Zulassungskriterien kommen?

Fahrzeuge sollen Minimalkataloge erfüllen

Audi verweist beispielsweise auf die ISO-Norm 26262 für sicherheitsrelevante elektrische und elektronische Systeme in Kraftfahrzeugen. Daimler hingegen nennt die Regelung Nr. 79 der Wirtschaftskommission der Vereinten Nationen für Europa (UN/ECE), die "einheitliche Bedingungen für die Genehmigung der Fahrzeuge hinsichtlich der Lenkanlage" umfasst. Laut Daimler wird die überarbeitete Regelung "anspruchsvolle Prüfkriterien für automatisierte Fahrfunktionen wie beispielsweise Spurhaltung und Spurwechsel beinhalten". Diese Prüfkriterien bezögen sich nicht nur auf die Lenkanlage, sondern auch auf die Bremse und auf die Übernahme der Fahrzeugkontrolle durch den Fahrer.

Derzeit wird unter deutsch-japanischem Vorsitz ein Vorschlag erarbeitet, dieses sogenannte Fahrzeugteileabkommen zu ändern. Wenn die Anforderungen an die Hersteller feststehen, wissen die Zulassungsbehörden zumindest, was geprüft werden soll. Nach Ansicht Kösters wird es dann "Szenarienkataloge geben, die wir durchtesten müssen". Dabei sollen die Fahrzeuge "auf jeden Fall Minimalkataloge" erfüllen.

Audi überflügelt Pegasus

Die deutschen Autokonzerne halten ein solches Vorgehen für sinnvoll. Allerdings erstaunt, wie unterschiedlich sie die Frage beantworten, wer diese Kataloge erstellen soll. Während BMW wieder auf Pears verweist, engagiert sich Daimler vor allem in Pegasus und den internationalen UN-Gremien. Audi wiederum antwortete: "Solche Kataloge gibt es bereits und wir erachten sie als sehr sinnvoll." Ein Beispiel sei die ISO-Richtlinie 17387, die Testprozeduren und Spezifikationsanforderungen für Spurwechselassistenten beschreibe.

Offenbar dauert dem Ingolstädter Konzern die Arbeit von Pears und Pegasus zu lange, um auf die Ergebnisse warten zu können. Schließlich könnte der A8 schon 2018 hochautomatisiert unterwegs sein. Daimler erwartet hingegen, erst "ab dem Jahr 2020 zum Beispiel längere Strecken auf der Autobahn automatisiert fahren zu können, wenn die entsprechenden Voraussetzungen wie zum Beispiel Zuverlässigkeit der Technik, Wettersituation oder rechtliche Grundlagen gegeben sind".

Fahrzeuge dürfen nicht selbst lernen

Doch lassen sich automatisierte Fahrzeuge überhaupt zuverlässig überprüfen, wenn die Systeme angeblich selbstlernend sein sollen und auf Basis der aufgezeichneten Verkehrssituationen eigene Regeln bilden könnten? Köster ist in diesem Punkt sehr skeptisch: "Angenommen, man hat ein intelligentes System, das ein bestimmtes Verkehrsregelwerk in Frage stellen würde, weil es das Durchfahren einer Kreuzung in engeren Bögen viel 'schöner' findet und hierbei zum Beispiel Spurmarkierung und andere Regularien einfach mal außer Acht lassen würde. Das kann ich mir nicht vorstellen, das will ich mir in solcher naiven Form nicht vorstellen."

Die Hersteller wiegeln ebenfalls ab. "Maschinelles Lernen bedeutet, dass 'offline' eine sehr große Zahl von Situationsdaten rechnerisch simuliert wird und automatisiert ein Satz geeigneter Algorithmen erstellt wird. Dieser Satz von Algorithmen wird danach in das Fahrzeug übertragen und während der Fahrt nicht verändert. Damit ist gewährleistet, dass sich ein Fahrzeug immer reproduzierbar verhält", sagt BMW. Volkswagen und Audi sehen derzeit den Einsatz von lernenden Algorithmen, die das Fahrverhalten während der Fahrzeugnutzung ändern können, nicht vor. Ebenso wie Daimler nutzen sie allerdings sogenannte Deep-Learning-Methoden auf Basis von Convolutional Neural Networks bei der Entwicklung.

Verhalten bleibt deterministisch

Zudem wenden sich die Hersteller entschieden gegen den Einsatz von Zufallsgeneratoren in ihren Autos. "Auf der Ebene des Gesamtfahrzeugs muss ein deterministisches Verhalten, im Rahmen technisch üblicher Parameterstreuungen, gewährleistet sein", sagt BMW. Dabei könnte es in manchen Situationen durchaus sinnvoll sein, beispielsweise per Zufallsgenerator eine Route zu wählen. Wenn bei einem Stau alle Fahrzeuge dieselbe Ausweichstrecke wählen, ist das Verkehrschaos praktisch programmiert. Aber auch für den Volkswagen-Konzern gilt: "Aktuell gibt es aus unserer Sicht keinen Nutzen für den Einsatz von Zufallsgeneratoren bei Fahrfunktionen."

Auch diese Entscheidung dürfte wohl im Sinne der Zulassungsbehörden sein. Denn wie soll man eine Funktion genehmigen, wenn man im Zweifel gar nicht weiß, wie sie sich verhält? Zudem stellt sich die Frage, wie künftig mit den Änderungen an der Fahrzeugsoftware umgegangen wird. Muss jeder neue Algorithmus wieder umfangreich geprüft werden? Und woher sollen die Behörden wissen, was tatsächlich an der Software verändert wurde? Vor allem vor dem Hintergrund der VW-Dieselaffäre sollten die Behörden gegenüber den Beteuerungen der Hersteller skeptischer geworden sein.

Wer darf den Quellcode sehen?

In den Quellcode wollen sich die Hersteller jedoch nicht unbedingt schauen lassen. So will BMW mit Hilfe von Pears "einen für die Verkehrssicherheit repräsentativen Fahrsituationskatalog erstellen" lassen. Dieser einheitliche Katalog werde in den einzelnen Häusern nach Vorgaben simuliert und die Ergebnisse würden dann den behördlichen Institutionen zur Verfügung gestellt. "Mit diesem Vorgehen ist eine wettbewerbsrelevante Geheimhaltung firmenspezifischer Lösungen bei gleichzeitiger Transparenz der Gesamtwirkung im realen Verkehr gewährleistet", sagt BMW.

Daimler sieht das ähnlich. Ein Einblick in den Quellcode werde "vermutlich ohne detaillierte Hilfestellung bei der Interpretation der Programmzeilen keine zielführenden Erkenntnisse zu den Entscheidungsmechanismen der automatisierten Fahrfunktionen ermöglichen". Entscheidend für den Nachweis eines sicheren Betriebs sei weniger der Code als das Verhalten des Systems im Straßenverkehr. Für die Zulassungsbehörden erscheine es daher sinnvoller, "sich anhand charakteristischer Eigenschaften ('Performancekriterien') reproduzierbare Eigenschaften der Systeme darlegen zu lassen".

Akzeptanz hängt von der Sicherheit ab

Die durch die Dieselaffäre gebeutelten Konzerne Audi und Volkswagen wollen grundsätzlich alle Anforderungen erfüllen, die für die Zulassung eines Fahrzeugs erforderlich sind. Volkswagen verweist auf bereits bestehende Einblicke in den Quellcode bei Software-Assessments zwischen Hersteller und Zulieferer. Dabei erhalte zumindest der Hersteller einen "vertraulichen Einblick und kann damit beurteilen, ob die verwendeten Methoden und Prozeduren zulässig sind". Was bei der Diesel-Betrugssoftware bekanntlich hervorragend funktioniert hat. Nach Ansicht von Audi wäre die Rechtslage an den jeweiligen Quellcodes zu berücksichtigen. Diese könnten in einer mehrstufigen Fertigungskette bei verschiedenen Beteiligten liegen.

Dass die Behörden durchaus an Quellcode interessiert sind, zeigte eine Stellenanzeige des Kraftfahrt-Bundesamtes vom vergangenen Sommer. Darin suchte die Behörde ausdrücklich Informatiker, die den Quellcode von Autosoftware lesen können.

Bis die ersten hoch- oder vollautomatisierten Autos im normalen Betrieb über deutsche Straßen rollen dürfen, sind daher noch einige technische und rechtliche Hürden zu überwinden. Die Akzeptanz der neuen Technik hängt stark davon ab, wie sicher und zuverlässig der Computer hinter dem Steuer die Menschen durch die Gegend chauffiert. Hersteller und Zulassungsbehörden haben dabei das gleiche Interesse, was die Fahrsicherheit betrifft. Sollte es aber zu ersten schweren Unfällen mit dem Autopiloten kommen, werden dennoch kritischen Fragen laut werden. Wie konnte das passieren? Warum wurde das nicht genug getestet?

Bei einem Unfall mit einem menschlichen Fahrer steckt fast immer ein individuelles Versagen dahinter. Ein fehlerhafter Autopilot könnte potenziell aber in Tausenden Fahrzeugen stecken und in ebenso vielen Fällen Menschenleben gefährden. Es ist daher schon berechtigt, die Fahrprüfung ein paar Millionen Kilometer länger machen zu lassen.  (fg)


Verwandte Artikel:
Automatisiertes Fahren: Düsseldorf testet Navigation durch Verkehrszentrale   
(03.11.2017, https://glm.io/130958 )
Verkehr: Karlsruhe baut ein Testfeld für autonomes Fahren auf   
(09.10.2017, https://glm.io/130506 )
Autonomes Fahren: Audi lässt Kunden selbstfahrenden A7 testen   
(19.07.2017, https://glm.io/129024 )
Uber vs. Waymo: Uber spionierte Konkurrenten aus   
(16.12.2017, https://glm.io/131708 )
Autonomes Fahren: Ethikkommission tappt nicht in die Dilemma-Falle   
(20.06.2017, https://glm.io/128476 )

© 1997–2019 Golem.de, https://www.golem.de/