Mercedes-Entwickler: Warum autonome Autos nicht selbst lernen dürfen

Autonome Autos werden Städte verändern: Sie werden Platz schaffen, sagt Mercedes-Entwickler Ralf Herrtwich. Im Interview spricht er über Schuld und Moral - und erklärt, warum Autos nicht selbst ihre Algorithmen schreiben sollen.

Artikel von Clemens Gleich veröffentlicht am
Mercedes-Entwickler Ralf Herrtwich
Mercedes-Entwickler Ralf Herrtwich (Bild: Clemens Gleich)

Ralf Herrtwich arbeitet beim Autohersteller Mercedes-Benz daran, selbstfahrende Autos näher an die Serienrealität zu bringen. Die Entwicklung begann mit sogenannten Autopilot-Systemen, bei denen der Fahrer noch am Steuer sitzt, aber die Steuerung hin und wieder an das Fahrzeug übergeben kann. Neuerdings gilt das Augenmerk Herrtwichs, Leiter Fahrerassistenz- und Fahrwerksysteme bei Daimler, gänzlich fahrerlosen Systemen.

Im Interview erklärt Herrtwich, warum Deep Learning bei der Entwicklung autonomer Autos hilft - und warum die Fahrzeuge trotzdem nicht individuell lernen sollen. Außerdem spricht er darüber, was die Sensoren in den Fahrzeugen heute noch am meisten verwirrt, wie autonome Fahrzeuge mit Schuld und Haftung umgehen und wie die Stadt der Zukunft aussehen könnte, wenn es irgendwann nur noch autonome Autos gibt - die sich zum Beispiel selbst einen Parkplatz suchen.

Golem.de: Das Thema vollautomatische Autos hat in den vergangenen Jahren ungeheuer an Relevanz gewonnen, obwohl es uns ja seit Jahrzehnten begleitet. Warum hat sich die Entwicklung so stark beschleunigt?

Herrtwich: In der Automobilindustrie hat man sich schon früh angeguckt, wie sehr man das Fahren automatisieren kann. Man kam allerdings über die Zeit zur Ansicht, das sei alles sehr teuer, recht unzuverlässig und man dachte: Das will keiner kaufen. Man hat es deshalb erst einmal zur Seite gepackt. Dann ist es immer schwierig, den richtigen Zeitpunkt zu finden, so etwas wieder aus dem Regal herauszuholen, weil man nicht sofort sieht, wenn zum Beispiel der technische Fortschritt ein Thema wieder relevant macht.

Deep Learning hat großen Fortschritt gebracht

Erst Anfang der 2010er Jahre haben wir wieder ins Regal geguckt und festgestellt, dass einige Probleme der Vergangenheit überwunden sind. Es hat sicherlich auch geholfen, dass ganz industriefremde Player auf das Thema aufmerksam wurden und eigene Lösungen entwickelten, zum Beispiel Google.

Golem.de: Sie sprechen technische Fortschritte an. Was kann denn beim heutigen Stand ein autonomes Fahrzeug leisten, und wo sind noch größere Baustellen?

Herrtwich: Was sich deutlich verbessert hat, ist die Art und Weise, wie Fahrzeuge ihre Umgebung klassifizieren. Da hat sich durch neue Methoden in der künstlichen Intelligenz einiges getan - Stichwort: Deep Learning. Hier haben wir mittlerweile eine Art und Weise der Umgebungsverarbeitung, die nah an menschlicher Verarbeitung im Gehirn liegt.

Ein Fahrzeug kann also viel genauer entscheiden, was in dieser Straßenszene ein anderes Fahrzeug ist, wohin es sich bewegt, ob es ihm gefährlich werden kann, was ein Fußgänger ist, der sich auf Kollisionskurs befindet, was ein Radfahrer. Das funktioniert heute mit höherer Zuverlässigkeit. Es funktioniert aber noch nicht absolut perfekt, und das ist genau der Punkt: Wir müssen die Systeme an einen Punkt bringen, an dem sie alle erwartbaren Situationen auf der Straße beherrschen.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
In der Stadt können Autos noch nicht immer adäquat reagieren 
  1. 1
  2. 2
  3. 3
  4. 4
  5.  


Proctrap 07. Jun 2016

Bis die Baustelle mal net uf'm Navi steht

Proctrap 07. Jun 2016

Ich fürchte du solltest einen Artikel bei Golem zu Thema "welcher Hersteller funkt was...

PiranhA 06. Jun 2016

Das grundsätzliche Problem ist doch, dass Computer sich mit Unsicherheiten schwer tun...

thrust26 04. Jun 2016

Irgendwann wird sie aber soweit sein. Und bis dahin sollte die Gesellschaft die...



Aktuell auf der Startseite von Golem.de
Grace Hopper Superchip
Nvidia zeigt den DGX GH200 AI-Supercomputer

Computex 2023 Die Kombination aus Grace Hopper, Bluefield 3 und NVLink ergibt funktional eine riesige GPU mit der Rechenkapazität eines Supercomputers und 144 TByte Grafikspeicher.

Grace Hopper Superchip: Nvidia zeigt den DGX GH200 AI-Supercomputer
Artikel
  1. Cortex v9 & v5 GPU: Arm setzt für Mobile SOCs voll auf 64-Bit
    Cortex v9 & v5 GPU
    Arm setzt für Mobile SOCs voll auf 64-Bit

    Computex 2023 Handys sollten durch den Wegfall von 32-Bit schneller, sicherer und trotzdem deutlich sparsamer werden.

  2. Reiner Haseloff: Ministerpräsident fordert Nullrunde bei Rundfunkbeitrag
    Reiner Haseloff
    Ministerpräsident fordert Nullrunde bei Rundfunkbeitrag

    Zwei Jahre soll der Rundfunkbeitrag eingefroren werden, die Zukunftskommission derweil Reformideen vorlegen, schlägt Sachsen-Anhalts Ministerpräsident vor.

  3. System Shock Remake angespielt: Die Kult-KI Shodan kämpft frisch entfesselt
    System Shock Remake angespielt
    Die Kult-KI Shodan kämpft frisch entfesselt

    System Shock gilt als wegweisendes Shooter-Rollenspiel. Jetzt ist Golem.de im Remake wieder gegen die Super-KI Shodan angetreten (Windows-PC).
    Von Peter Steinlechner

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Microsoft Xbox Wireless Controller 40,70€ • Lexar Play 1 TB 99,60€ • DAMN!-Deals mit AMD-Bundle-Aktion • MindStar: AMD Ryzen 9 5950X 429€, MSI RTX 3060 Gaming Z Trio 12G 329€, GIGABYTE RTX 3060 Eagle OC 12G 299€, be quiet! Pure Base 500DX 89€ • Logitech bis -46% [Werbung]
    •  /