Zum Hauptinhalt Zur Navigation Zur Suche

Mercedes-Entwickler: Warum autonome Autos nicht selbst lernen dürfen

Autonome Autos werden Städte verändern: Sie werden Platz schaffen, sagt Mercedes -Entwickler Ralf Herrtwich. Im Interview spricht er über Schuld und Moral – und erklärt, warum Autos nicht selbst ihre Algorithmen schreiben sollen.
/ Clemens Gleich
69 Kommentare undefined News folgen (öffnet im neuen Fenster)
Mercedes-Entwickler Ralf Herrtwich (Bild: Clemens Gleich)
Mercedes-Entwickler Ralf Herrtwich Bild: Clemens Gleich

Ralf Herrtwich arbeitet beim Autohersteller Mercedes-Benz daran, selbstfahrende Autos näher an die Serienrealität zu bringen. Die Entwicklung begann mit sogenannten Autopilot-Systemen, bei denen der Fahrer noch am Steuer sitzt, aber die Steuerung hin und wieder an das Fahrzeug übergeben kann. Neuerdings gilt das Augenmerk Herrtwichs, Leiter Fahrerassistenz- und Fahrwerksysteme bei Daimler, gänzlich fahrerlosen Systemen.

Im Interview erklärt Herrtwich, warum Deep Learning bei der Entwicklung autonomer Autos hilft – und warum die Fahrzeuge trotzdem nicht individuell lernen sollen. Außerdem spricht er darüber, was die Sensoren in den Fahrzeugen heute noch am meisten verwirrt, wie autonome Fahrzeuge mit Schuld und Haftung umgehen und wie die Stadt der Zukunft aussehen könnte, wenn es irgendwann nur noch autonome Autos gibt – die sich zum Beispiel selbst einen Parkplatz suchen.

Golem.de: Das Thema vollautomatische Autos hat in den vergangenen Jahren ungeheuer an Relevanz gewonnen, obwohl es uns ja seit Jahrzehnten begleitet. Warum hat sich die Entwicklung so stark beschleunigt?

Herrtwich: In der Automobilindustrie hat man sich schon früh angeguckt, wie sehr man das Fahren automatisieren kann. Man kam allerdings über die Zeit zur Ansicht, das sei alles sehr teuer, recht unzuverlässig und man dachte: Das will keiner kaufen. Man hat es deshalb erst einmal zur Seite gepackt. Dann ist es immer schwierig, den richtigen Zeitpunkt zu finden, so etwas wieder aus dem Regal herauszuholen, weil man nicht sofort sieht, wenn zum Beispiel der technische Fortschritt ein Thema wieder relevant macht.

Deep Learning hat großen Fortschritt gebracht

Erst Anfang der 2010er Jahre haben wir wieder ins Regal geguckt und festgestellt, dass einige Probleme der Vergangenheit überwunden sind. Es hat sicherlich auch geholfen, dass ganz industriefremde Player auf das Thema aufmerksam wurden und eigene Lösungen entwickelten, zum Beispiel Google.

Golem.de: Sie sprechen technische Fortschritte an. Was kann denn beim heutigen Stand ein autonomes Fahrzeug leisten, und wo sind noch größere Baustellen?

Herrtwich: Was sich deutlich verbessert hat, ist die Art und Weise, wie Fahrzeuge ihre Umgebung klassifizieren. Da hat sich durch neue Methoden in der künstlichen Intelligenz einiges getan – Stichwort: Deep Learning. Hier haben wir mittlerweile eine Art und Weise der Umgebungsverarbeitung, die nah an menschlicher Verarbeitung im Gehirn liegt.

Ein Fahrzeug kann also viel genauer entscheiden, was in dieser Straßenszene ein anderes Fahrzeug ist, wohin es sich bewegt, ob es ihm gefährlich werden kann, was ein Fußgänger ist, der sich auf Kollisionskurs befindet, was ein Radfahrer. Das funktioniert heute mit höherer Zuverlässigkeit. Es funktioniert aber noch nicht absolut perfekt, und das ist genau der Punkt: Wir müssen die Systeme an einen Punkt bringen, an dem sie alle erwartbaren Situationen auf der Straße beherrschen.

In der Stadt können Autos noch nicht immer adäquat reagieren

Herrtwich: Viel hängt natürlich davon ab, wie strukturiert eine Straßenszene aussieht. Die Automatisierungstechnik konzentriert sich deswegen zunächst auf den Autobahnbereich. Die Spuren sind sehr breit, die Kurvenradien weit, die Sensoren können weit gucken, alle Autos sind in der gleichen Richtung unterwegs, und das einzige nennenswerte Manöver ist ein Spurwechsel. Nur die hohe Geschwindigkeit auf der Autobahn stellt höhere Anforderungen an den Erfassungsbereich der Sensoren.

Viel schwieriger wird es in der Stadt. Dort muss man viel mehr sehen, viel mehr testen, viel mehr Möglichkeiten prüfen. Dabei macht man gute Fortschritte, aber es wäre vermessen zu sagen, dass man schon auf jede Situation adäquat reagieren könne. Natürlich kann das Auto im Zweifel immer anhalten. Nur reicht es eben für eine Fortbewegung in der Stadt nicht aus, einfach irgendwo nicht hineinzufahren.

Das Wetter und Ampeln können Sensoren verwirren

Außerdem gibt es ein paar sensorische Themen, die wir noch in den Griff bekommen müssen. Wir sollten nicht so tun, als ob unsere Sensoren alles sehen können, unter allen Bedingungen gut funktionieren. Wir sehen heute große Wetterabhängigkeiten in der Sensorik. Es ist kein Zufall, dass die meisten Tests für automatisiertes Fahren in Schönwettergebieten wie Kalifornien oder Nevada stattfinden. Starker Regen, Schneefall, die damit einhergehende Verschmutzung, das stellt uns noch vor einige Herausforderungen.

Einige Dinge in der Umgebung des Fahrzeugs sind obendrein sehr schwer zu interpretieren. Kurioserweise sind Ampeln zum Beispiel ein echtes Problem. Die dürfen ja keinesfalls falsch interpretiert werden. Aber an einer Kreuzung die richtige Ampel herauszufinden, die für das Fahrzeug geschaltet gilt, kann sehr schwierig werden, wenn es viele Ampeln gibt. Man muss die Ampel sehen können, man muss Pfeile in der Ampel sehen können, was aus der Entfernung sehr wenige Pixel werden können, oft gibt es Gegenlicht, und da befinden wir uns gerade am technischen Rand der Erfassungsleistung aktueller Sensoren.

Golem.de: Sie haben vor einiger Zeit darüber gesprochen, inwiefern sich Methoden des Maschinenlernens für automatisierte Fahrzeuge eignen. Damals haben Sie betont, dass sich die Fahrzeuge vorhersagbar verhalten müssen. Was ist damit genau gemeint?

Herrtwich: Was ich damals meinte, war: Wir sehen momentan noch davon ab, dass unsere Fahrzeuge selber lernen, in dem Sinne, dass sie ihre eigenen Algorithmen verändern. Es ging also um die Ebene der einzelnen Software-Entität. Das würde uns nämlich vor das Problem stellen, dass, wann immer ein Fahrzeug einen Fehler zeigt, dieser Fehler für uns kaum noch nachstellbar wird, weil uns der individuelle Kenntnisstand des Fahrzeugs fehlt. Deswegen habe ich damals gesagt, ich würde nicht davon ausgehen, dass jedes Fahrzeug individuell lernt.

Was wir uns durchaus vorstellen können, ist eine Zusammenführung der Erfahrungen aus der Flotte im Backend. Daraus könnten wir Trainings für alle Fahrzeuge entwickeln und diese zurückspielen, so dass alle Fahrzeuge mit derselben Logikstruktur fahren. Für uns ist es einfach ein wesentlicher Faktor, dass das Verhalten unserer Fahrzeuge deterministisch bleibt, wir es also nachstellen können. Wenn jedes Fahrzeug sich seinen eigenen Datenerfahrungen anpasst, verhält sich jedes Fahrzeug leicht anders. Ich weiß, das klingt sehr menschlich und wäre eigentlich auch cool, aber es stellt uns vor das Problem, dass wir kaum noch absichern können, welches Verhalten unsere Fahrzeuge anbieten und welches nicht.

Entscheiden Autos über Leben und Tod?

Golem.de: Es gibt zwei Dinge, die Menschen an autonomen Autos unheimlich faszinieren, weil es so menschliche Themen sind: Moral und Schuld. Sie kennen bestimmt das Straßenbahndilemma. Das ist eine Sammlung moralischer Gedankenspiele darüber, wer sterben soll und wer leben, in entsprechend formulierten Szenarien. In der Vorstellung vieler Menschen muss auch ein autonomes Auto dauernd solche Dilemmas auflösen. Der Stand der Dinge ist aktuell erst, dass ein Auto klassifizieren kann, was ein Baum ist und was ein Passant. Wie relevant bewerten Sie solche Maschinenentscheidungen im Alltag? Und warum fasziniert das Moraldilemma die Menschen so?

Herrtwich: Ich glaube, die Faszination kommt schlicht aus der Vorstellung, dass eine Entscheidung über Leben und Tod an eine Maschine delegiert wird. Das setzt verständlicherweise alle möglichen Phantasien frei. Vertrackte Dilemmas wie die Kurzgeschichten mit der Straßenbahn sind in der Realität allerdings sehr, sehr selten. Was sehen wir heute als Unfallursachen? Es sind fast immer Unachtsamkeiten oder Fehleinschätzungen. Ein Fahrer fährt zu schnell in eine Kurve, sieht plötzlich vor sich ein Hindernis, kann nicht mehr bremsen, et cetera.

Ein automatisiertes Auto kommt nicht leicht ins moralische Dilemma

Ein automatisiertes Auto kann die meisten dieser Unfälle vermeiden, weil Unachtsamkeit in dieser Weise bei einer Maschine nicht auftritt. Das heißt, es bleiben nur ganz wenige Situationen übrig. Es ist nicht so, dass das Roboterfahrzeug eine Straße entlangfährt und dann entscheiden muss: Fahre ich jetzt in die Menschen links oder in die Menschen rechts? Diese Menschen hat es alle schon viel früher gesehen und kann weit vorher anhalten.

Was vorkommen kann, sind Situationen, die sich schwer erwartbar aus ungünstigen physikalischen Umständen ergeben. Beispiel: Ich fahre in normalem Sicherheitsabstand hinter einem Lastwagen her. Dieser Lastwagen verliert plötzlich Ladung. Das ist ein unwahrscheinliches Ereignis, auf das ich auch als menschlicher Fahrer selten vorbereitet bin. Ein automatisiertes Auto hat jedoch immer noch die besseren Chancen, hier einen Unfall zu vermeiden, denn die Maschine sieht und reagiert viel schneller, aber das wäre so eine Dilemmasituation, weil ich mich am Rand des physikalisch Möglichen bewege.

Golem.de: Wo wäre hier das Dilemma?

Herrtwich: Naja, es fahren ja oft links oder rechts andere Autos. Kann ich ausweichen? Muss ich ausweichen? Ist das Ausweichen besser, als in die Ladung hineinzufahren? Das sind Situationen, in denen sich ein autonomes Auto durchaus wiederfinden kann. In den meisten Fällen gilt nach unserer Erfahrung allerdings, dass es am besten ist, so schnell wie möglich zu bremsen, relative Bewegungsenergie abzubauen.

Golem.de: Das zweite große Interesse gilt der Frage der Schuld, der Haftung. Kürzlich wurde das Wiener Abkommen geändert, um der technischen Entwicklung Rechnung zu tragen. Das wurde vorher oft zitiert als Argument, dass autonome Autos rechtlich nicht möglich seien. Der Gesetzgeber hat sich jedoch überall sehr kooperativ gezeigt. Das wird bei der Haftung mit höchster Wahrscheinlichkeit ähnlich aussehen. Welche Modelle der Haftung gäbe es und was sehen Sie als den gangbarsten Weg?

Herrtwich: Das Wiener Abkommen war ein erster nötiger Schritt, um den Weg zur Zulassung automatisierter Autos zu ebnen. Das ist noch keine endgültige Klärung auf der Ebene des Zulassungsrechts und auch für gänzlich fahrerlose Fahrzeuge müsste das Abkommen noch einmal angepasst werden.

Im deutschen Recht reichen über weite Bereiche bestehende Haftungsregeln aus. Wir haben in Deutschland eine Halterhaftung. Jeder, der bei einem Unfall geschädigt wird, ist dadurch geschützt, dass der Halter des Fahrzeugs unabhängig von der Verschuldensfrage haftet und zudem versichert sein muss. Daneben haftet der Fahrer, wenn er nicht sorgfältig handelt oder der Hersteller bei Produktfehlern. Was bereits absehbar ist, ist, dass wir in automatisierten Fahrzeugen standardisierte Blackboxen haben werden, die bei einem Unfall erfassen, was passiert ist, damit der Unfallhergang sauber rekonstruiert werden kann.

Wie autonome Autos die Städte verändern

Golem.de: Wie könnte denn eine Zukunft aussehen, wenn wir erst einen gewissen Anteil autonomer Autos auf den Straßen sehen und später sehr viele oder fast ausschließlich autonome Autos?

Herrtwich: Die Endphase lässt sich hier einfacher beschreiben als die Zwischenphase. Das Endszenario ist in meiner Vorstellung dadurch geprägt, dass man den öffentlichen Raum in den Städten verändern kann, weil es mehr verfügbaren Platz gibt, der vorher Parkraum war. Autonome Fahrzeuge können sich ihren Parkplatz selber suchen und besser ausgelastet sein, sie brauchen also weniger Parkplätze. Wenn man das noch kombiniert mit Carsharing-Ideen à la Car2Go, ergibt das eine deutlich andere Mobilität, eine Mobilität on Demand. Es werden dann im Stadtraum ganz andere Flächennutzungskonzepte möglich.

Wir denken, dass es eine Erfolgsstory wird

Der Weg dahin ist allerdings schwierig, denn solange es einen Mischverkehr gibt, können wir nicht radikal umorganisieren. Es ist allerdings sowieso so, dass Infrastruktur und Stadtentwicklung ihre Zeit brauchen, sich an so eine technische Entwicklung anzupassen. Man kann sich gut vorstellen, dass neue Konzepte lokal ausgerollt und peu à peu anderswo übernommen werden, wenn sie sich bewähren. Wir müssen überhaupt erst einmal sehen, wie gut solche Systeme dann auch angenommen werden. Wir denken natürlich, dass alles eine Erfolgsstory wird, aber bisher hat ja noch niemand den Versuch gemacht.

Golem.de: In der Technikszene ist die Ansicht verbreitet, dass die Autoindustrie bei autonomen Autos keinen Vorteil mehr habe vor neuen Mitbewerbern. Was ist Ihre Ansicht dazu?

Herrtwich: Sich hinzustellen und als Autobauer zu sagen: "Nur wir können das!", das wäre vermessen. So wie wir uns einige Techniken neu erarbeiten mussten, müssen auch andere sich mit Dingen auseinandersetzen, die in ihrem bisherigen Geschäft nicht vorkommen. Ein nicht unwesentlicher Teil unseres Know-hows ist das Wissen darum, wie man ein Fahrzeug aufbaut, erprobt, absichert, so dass man es im besten Gewissen auf die Welt loslassen kann. Das führt dazu, dass die Systeme, die wir einführen, mit sehr geringen Fehlerraten in den Markt gehen. Am Ende kommt es ja auch auf das Gesamtpaket an, auf das Zusammenspiel der einzelnen Komponenten: der Intelligenz, des Antriebs, des Interieurs und Designs.

Golem.de: Abschlussfrage: Welches Traumfahrzeug würden Sie gerne noch in Ihrem aktiven Arbeitsleben auf die Straße bringen, in Serie?

Herrtwich: Ich würde gerne den F 015 oder vielleicht seinen kleinen Bruder, die urbanere "Vision Tokyo", auf die Straße bringen – mit all den Funktionen, die wir damals nur prototypisch als Konzept angedacht haben. So was als Serienfahrzeug, das würde ich gerne noch hinbekommen.


Relevante Themen