Autonome Fahrzeuge: Wenn Software über Leben und Tod entscheidet

Wen soll ein selbstfahrendes Auto rammen, wenn es einen Unfall nicht verhindern kann - den SUV links oder den Kleinwagen rechts? Eine Frage nicht nur von Ethik und Recht.

Artikel veröffentlicht am , Patrick Beuth/Zeit Online
Was Googles fahrerloses Auto "sieht", wenn es durch Las Vegas fährt. (Bild von 2012)
Was Googles fahrerloses Auto "sieht", wenn es durch Las Vegas fährt. (Bild von 2012) (Bild: Reuters/Nevada Department of Motor Vehicles)

Ein selbstfahrendes Auto fährt auf der Mittelspur der Autobahn, plötzlich kreuzt direkt vor ihm jemand die Spur. Die Elektronik des Autos ist zwar schneller als jeder Mensch, aber eine Kollision lässt sich nicht verhindern - das autonome Auto kann nur auswählen, ob es gar nicht ausweicht oder links den Geländewagen rammt, oder rechts den Kleinwagen. Wie entscheidet die Software, wessen Leben sie aufs Spiel setzt?

Inhalt:
  1. Autonome Fahrzeuge: Wenn Software über Leben und Tod entscheidet
  2. Lässt sich ein fahrerloses Auto hacken und austricksen?

Patrick Lin, Direktor der Ethics + Emerging Sciences Group an der California Polytechnic State University, hat solche Gedankenexperimente für das Magazin Wired durchgespielt. Schließlich würden autonom fahrende Autos wie das von Google vor allem deshalb entwickelt, weil sie in solchen Situationen aufgrund ihrer immer wachen Sensoren und ihrer Reaktionsschnelligkeit bessere Entscheidungen treffen können als ein Mensch. Sie können den zu erwartenden Schaden minimieren. Aber nach welchen Regeln das geschieht, müssen vorher die Programmierer festlegen.

Anders gefragt: Wessen Tod nehmen die autonomen Fahrzeuge (beziehungsweise deren Entwickler) in Kauf, wenn sie die eigenen Insassen schützen wollen? Für Lin sind das Fragen von Softwareethik, Moral und auch von Gesetzen und Geschäftsmodellen.

Allzu viel Zeit bleibt vielleicht nicht mehr, bis sie beantwortet werden müssen. Google will seine selbstfahrenden Autos schon 2017 so weit entwickelt haben, dass sie für die Öffentlichkeit auch jenseits der heutigen Testfahrten taugen. Vor Kurzem hat das Unternehmen bekanntgegeben, mittlerweile Tausende von Verkehrssituationen in der Stadt zu beherrschen.

Den behelmten Motoradfahrer verschonen oder den ohne Helm?

Stellenmarkt
  1. JavaScript-Entwickler (m/w/d)
    tangro software components GmbH, Heidelberg
  2. Koordinator (m/w/d) IT-Infrastructure & -Services
    Automotive Safety Technologies GmbH, Gaimersheim
Detailsuche

Lin beschreibt zunächst das Beispiel mit dem Geländewagen und dem Kleinwagen. Die Vernunft sagt: Der Geländewagen ist stabiler, seine Insassen sind besser geschützt als die des Kleinwagens. Also sollte das fahrerlose Auto besser mit dem Geländewagen kollidieren. Aber darf dessen Besitzer per Softwareprogrammierung eines anderen Fahrzeugs dafür bestraft werden, kein kleineres Auto gekauft zu haben? Dürfen Hersteller von besonders stabilen Autos bestraft werden, wodurch ihr Geschäftsmodell leiden könnte?

Und was Lin noch nicht einmal erwähnt: Muss man einen Kleinwagen fahren, um sich vor Unfällen mit autonomen Fahrzeugen zu schützen, wenn man damit gleichzeitig das Risiko eingeht, bei einem Unfall mit einem normalen Auto größere Schäden davonzutragen? Kommt es vielleicht auch darauf an, wie viele Menschen in den Autos links und rechts sitzen und in Gefahr geraten, und nicht nur auf die Bauart der beiden Wagen?

Beispiel zwei: Wenn ein selbstfahrendes Auto einen Unfall nicht mehr verhindern und nur noch entscheiden kann, ob es links den Motorradfahrer mit Helm oder rechts den ohne Helm trifft - welche Entscheidung ist dann die weniger falsche?

Die Vernunft sagt, der Motorradfahrer mit Helm hat die größere Chance, den Unfall zu überleben. Die Moral sagt, der ohne Helm sollte für sein verantwortungsloses oder sogar illegales Handeln nicht auch noch belohnt werden. Das Auto könnte dem Zufall die Entscheidung überlassen

"Schleier der Ignoranz"

Lin spielt eine Reihe von Lösungsmöglichkeiten durch. Die erste wäre ein Zufallszahlengenerator. Er würde anspringen, sobald das Auto einen Zusammenstoß links oder rechts als unausweichlich erkennen würde. Kommt dabei eine ungerade Zahl heraus, würde das Auto nach links ausweichen, bei einer geraden Zahl nach rechts. Das würde menschliches Handeln ansatzweise simulieren, weil Menschen in solchen Momenten keine durchdachte Reaktion mehr zeigen könnten.

Entscheidet das Auto aber zufällig, würde es sich praktisch selbst überflüssig machen. Die überlegene Reaktionsgeschwindigkeit in solchen kritischen Situationen ist einer der Hauptgründe, warum selbstfahrende Autos überhaupt entwickelt werden.

Eine Alternative zum Zufall wäre laut Lin ein "Schleier der Ignoranz": Die Entwickler der selbstfahrenden Autos könnten dafür sorgen, dass der Unfall-Algorithmus nicht weiß, was für Autos links und rechts von ihm fahren - ob es sich um Geländewagen oder Kleinwagen handelt. Dabei wäre es aber ein Unterschied, ob die Information gar nicht erst erhoben wird, oder ob sie von den Sensoren erfasst wird, aber nicht in den Algorithmus einfließt. Letzteres könnte ein rechtliches Problem sein, glaubt Lin. Denn die Autohersteller könnten möglicherweise dafür belangt werden, vorhandene Informationen nicht genutzt zu haben, um das Leben eines Menschen zu beschützen.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
Lässt sich ein fahrerloses Auto hacken und austricksen? 
  1. 1
  2. 2
  3.  


chrulri 19. Mai 2014

Fazit: Geschwindigkeit welche von den Autos aufgrund des Verkehrsaufkommens berechnet...

Gizeh 19. Mai 2014

Das richtige wäre dennoch, der Motorradfahrer nicht zu involvieren, da dieser als...

Gizeh 19. Mai 2014

Das will ich sehen, wie das innerorts einer schafft, ohne auf dem Gehweg zu fahren.

Gizeh 19. Mai 2014

Korrekt, der Smart ist auf die Knautschzone des anderen Unfallteilnehmers angewiesen

Gizeh 19. Mai 2014

Fußgänger und Radfahrer können auch eine entsprechende App auf ihren Smartphones...



Aktuell auf der Startseite von Golem.de
Pornhub, Youporn, Mydirtyhobby
Gericht bestätigt Zugangsverbot für Pornoportale

Die Landesmedienanstalt NRW hat zu Recht gegen drei Pornoportale mit Sitz in Zypern ein Zugangsverbot verhängt.

Pornhub, Youporn, Mydirtyhobby: Gericht bestätigt Zugangsverbot für Pornoportale
Artikel
  1. Zip: Ratenzahlung in Microsoft Edge empört die Community
    Zip
    Ratenzahlung in Microsoft Edge empört die Community

    Die App Zip wird seit Microsoft Edge 96 standardmäßig aktiviert. Diese bietet Ratenzahlung an, schürt aber nur Hass in der Community.

  2. Kompakter Einstieg in die Netzwerktechnik
     
    Kompakter Einstieg in die Netzwerktechnik

    Die Golem Akademie bietet Admins und IT-Sicherheitsbeauftragten in einem Fünf-Tage-Workshop einen umfassenden Überblick über Netzwerktechnologien und -konzepte.
    Sponsored Post von Golem Akademie

  3. Razer Zephyr im Test: Gesichtsmaske mit Stil bringt nicht viel
    Razer Zephyr im Test
    Gesichtsmaske mit Stil bringt nicht viel

    Einmal Cyberpunk mit Beleuchtung bitte: Tragen wir Razers Zephyr in der U-Bahn, fallen wir auf. Allerdings ist das Produkt nicht ausgereift.
    Ein Test von Oliver Nickel

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • Last Minute Angebote bei Amazon • Crucial-RAM zu Bestpreisen (u. a. 16GB Kit DDR4-3600 73,99€) • HP 27" FHD 165Hz 199,90€ • Razer Iskur X Gaming-Stuhl 239,99€ • Adventskalender bei MM/Saturn (u. a. Surface Pro 7+ 849€) • Alternate (u. a. Adata 1TB PCIe-4.0-SSD für 129,90€) [Werbung]
    •  /