Abo
  • Services:

Autonome Fahrzeuge: Wenn Software über Leben und Tod entscheidet

Wen soll ein selbstfahrendes Auto rammen, wenn es einen Unfall nicht verhindern kann - den SUV links oder den Kleinwagen rechts? Eine Frage nicht nur von Ethik und Recht.

Artikel veröffentlicht am , Patrick Beuth/Zeit Online
Was Googles fahrerloses Auto "sieht", wenn es durch Las Vegas fährt. (Bild von 2012)
Was Googles fahrerloses Auto "sieht", wenn es durch Las Vegas fährt. (Bild von 2012) (Bild: Reuters/Nevada Department of Motor Vehicles)

Ein selbstfahrendes Auto fährt auf der Mittelspur der Autobahn, plötzlich kreuzt direkt vor ihm jemand die Spur. Die Elektronik des Autos ist zwar schneller als jeder Mensch, aber eine Kollision lässt sich nicht verhindern - das autonome Auto kann nur auswählen, ob es gar nicht ausweicht oder links den Geländewagen rammt, oder rechts den Kleinwagen. Wie entscheidet die Software, wessen Leben sie aufs Spiel setzt?

Inhalt:
  1. Autonome Fahrzeuge: Wenn Software über Leben und Tod entscheidet
  2. Lässt sich ein fahrerloses Auto hacken und austricksen?

Patrick Lin, Direktor der Ethics + Emerging Sciences Group an der California Polytechnic State University, hat solche Gedankenexperimente für das Magazin Wired durchgespielt. Schließlich würden autonom fahrende Autos wie das von Google vor allem deshalb entwickelt, weil sie in solchen Situationen aufgrund ihrer immer wachen Sensoren und ihrer Reaktionsschnelligkeit bessere Entscheidungen treffen können als ein Mensch. Sie können den zu erwartenden Schaden minimieren. Aber nach welchen Regeln das geschieht, müssen vorher die Programmierer festlegen.

Anders gefragt: Wessen Tod nehmen die autonomen Fahrzeuge (beziehungsweise deren Entwickler) in Kauf, wenn sie die eigenen Insassen schützen wollen? Für Lin sind das Fragen von Softwareethik, Moral und auch von Gesetzen und Geschäftsmodellen.

Allzu viel Zeit bleibt vielleicht nicht mehr, bis sie beantwortet werden müssen. Google will seine selbstfahrenden Autos schon 2017 so weit entwickelt haben, dass sie für die Öffentlichkeit auch jenseits der heutigen Testfahrten taugen. Vor Kurzem hat das Unternehmen bekanntgegeben, mittlerweile Tausende von Verkehrssituationen in der Stadt zu beherrschen.

Den behelmten Motoradfahrer verschonen oder den ohne Helm?

Stellenmarkt
  1. NCP engineering GmbH, Nürnberg
  2. Daimler AG, Böblingen

Lin beschreibt zunächst das Beispiel mit dem Geländewagen und dem Kleinwagen. Die Vernunft sagt: Der Geländewagen ist stabiler, seine Insassen sind besser geschützt als die des Kleinwagens. Also sollte das fahrerlose Auto besser mit dem Geländewagen kollidieren. Aber darf dessen Besitzer per Softwareprogrammierung eines anderen Fahrzeugs dafür bestraft werden, kein kleineres Auto gekauft zu haben? Dürfen Hersteller von besonders stabilen Autos bestraft werden, wodurch ihr Geschäftsmodell leiden könnte?

Und was Lin noch nicht einmal erwähnt: Muss man einen Kleinwagen fahren, um sich vor Unfällen mit autonomen Fahrzeugen zu schützen, wenn man damit gleichzeitig das Risiko eingeht, bei einem Unfall mit einem normalen Auto größere Schäden davonzutragen? Kommt es vielleicht auch darauf an, wie viele Menschen in den Autos links und rechts sitzen und in Gefahr geraten, und nicht nur auf die Bauart der beiden Wagen?

Beispiel zwei: Wenn ein selbstfahrendes Auto einen Unfall nicht mehr verhindern und nur noch entscheiden kann, ob es links den Motorradfahrer mit Helm oder rechts den ohne Helm trifft - welche Entscheidung ist dann die weniger falsche?

Die Vernunft sagt, der Motorradfahrer mit Helm hat die größere Chance, den Unfall zu überleben. Die Moral sagt, der ohne Helm sollte für sein verantwortungsloses oder sogar illegales Handeln nicht auch noch belohnt werden. Das Auto könnte dem Zufall die Entscheidung überlassen

"Schleier der Ignoranz"

Lin spielt eine Reihe von Lösungsmöglichkeiten durch. Die erste wäre ein Zufallszahlengenerator. Er würde anspringen, sobald das Auto einen Zusammenstoß links oder rechts als unausweichlich erkennen würde. Kommt dabei eine ungerade Zahl heraus, würde das Auto nach links ausweichen, bei einer geraden Zahl nach rechts. Das würde menschliches Handeln ansatzweise simulieren, weil Menschen in solchen Momenten keine durchdachte Reaktion mehr zeigen könnten.

Entscheidet das Auto aber zufällig, würde es sich praktisch selbst überflüssig machen. Die überlegene Reaktionsgeschwindigkeit in solchen kritischen Situationen ist einer der Hauptgründe, warum selbstfahrende Autos überhaupt entwickelt werden.

Eine Alternative zum Zufall wäre laut Lin ein "Schleier der Ignoranz": Die Entwickler der selbstfahrenden Autos könnten dafür sorgen, dass der Unfall-Algorithmus nicht weiß, was für Autos links und rechts von ihm fahren - ob es sich um Geländewagen oder Kleinwagen handelt. Dabei wäre es aber ein Unterschied, ob die Information gar nicht erst erhoben wird, oder ob sie von den Sensoren erfasst wird, aber nicht in den Algorithmus einfließt. Letzteres könnte ein rechtliches Problem sein, glaubt Lin. Denn die Autohersteller könnten möglicherweise dafür belangt werden, vorhandene Informationen nicht genutzt zu haben, um das Leben eines Menschen zu beschützen.

Lässt sich ein fahrerloses Auto hacken und austricksen? 
  1. 1
  2. 2
  3.  


Anzeige
Top-Angebote
  1. (u. a. Lust for Darkness für 11,49€ und Ghost of a Tale für 14,99€)
  2. 57,90€ + 5,99€ Versand (zusätzlich 15€ Rabatt bei Zahlung mit Masterpass)
  3. jetzt bis zum 28.06. direkt bei Apple bestellen und die 0% Raten-Finanzierung erhalten
  4. (u. a. Lost Planet: Extreme Condition für 2,29€ und On Rusty Trails für 2,49€)

chrulri 19. Mai 2014

Fazit: Geschwindigkeit welche von den Autos aufgrund des Verkehrsaufkommens berechnet...

Gizeh 19. Mai 2014

Das richtige wäre dennoch, der Motorradfahrer nicht zu involvieren, da dieser als...

Gizeh 19. Mai 2014

Das will ich sehen, wie das innerorts einer schafft, ohne auf dem Gehweg zu fahren.

Gizeh 19. Mai 2014

Korrekt, der Smart ist auf die Knautschzone des anderen Unfallteilnehmers angewiesen

Gizeh 19. Mai 2014

Fußgänger und Radfahrer können auch eine entsprechende App auf ihren Smartphones...


Folgen Sie uns
       


Sonnet eGFX Box 650W - Test

Die eGFX Box von Sonnet hat 650 Watt und ist ein externes Grafikkarten-Gehäuse. Sie funktioniert mit AMDs Radeon RX Vega 64 und wird per Thunderbolt 3 an ein Notebook angeschlossen. Der Lüfter und das Netzteil sind vergleichsweise leise, der Preis fällt mit 450 Euro recht hoch aus.

Sonnet eGFX Box 650W - Test Video aufrufen
Deutsche Siri auf dem Homepod im Test: Amazon und Google können sich entspannt zurücklehnen
Deutsche Siri auf dem Homepod im Test
Amazon und Google können sich entspannt zurücklehnen

In diesem Monat kommt der dritte digitale Assistent auf einem smarten Lautsprecher nach Deutschland: Siri. Wir haben uns angehört, was die deutsche Version auf dem Homepod leistet.
Ein Test von Ingo Pakalski

  1. Patentantrag von Apple Neues Verfahren könnte Siri schlauer machen
  2. Siri vs. Google Assistant Apple schnappt sich Googles KI-Chefentwickler
  3. Digitaler Assistent Apple will Siri verbessern

3D-Druck on Demand: Wenn der Baumarkt Actionfiguren aus Stahl druckt
3D-Druck on Demand
Wenn der Baumarkt Actionfiguren aus Stahl druckt

Es gibt viele Anbieter für 3D-Druck on Demand und die Preise fallen. Golem.de hat die 3D-Druckdienste von Toom, Conrad Electronic, Sculpteo und Media Markt getestet, um neue Figuren der Big-Jim-Reihe zu erschaffen.
Ein Praxistest von Achim Sawall


    In eigener Sache: Freie Schreiber/-innen für Jobthemen gesucht
    In eigener Sache
    Freie Schreiber/-innen für Jobthemen gesucht

    IT-Profis sind auf dem Arbeitsmarkt enorm gefragt, und die Branche hat viele Eigenheiten. Du kennst dich damit aus und willst unseren Lesern darüber berichten? Dann schreib für unser Karriere-Ressort!

    1. Leserumfrage Wie sollen wir Golem.de erweitern?
    2. Stellenanzeige Golem.de sucht Redakteur/-in für IT-Sicherheit
    3. Leserumfrage Wie gefällt Ihnen Golem.de?

      •  /