Abo
  • Services:

Autonome Fahrzeuge: Wenn Software über Leben und Tod entscheidet

Wen soll ein selbstfahrendes Auto rammen, wenn es einen Unfall nicht verhindern kann - den SUV links oder den Kleinwagen rechts? Eine Frage nicht nur von Ethik und Recht.

Artikel veröffentlicht am , Patrick Beuth/Zeit Online
Was Googles fahrerloses Auto "sieht", wenn es durch Las Vegas fährt. (Bild von 2012)
Was Googles fahrerloses Auto "sieht", wenn es durch Las Vegas fährt. (Bild von 2012) (Bild: Reuters/Nevada Department of Motor Vehicles)

Ein selbstfahrendes Auto fährt auf der Mittelspur der Autobahn, plötzlich kreuzt direkt vor ihm jemand die Spur. Die Elektronik des Autos ist zwar schneller als jeder Mensch, aber eine Kollision lässt sich nicht verhindern - das autonome Auto kann nur auswählen, ob es gar nicht ausweicht oder links den Geländewagen rammt, oder rechts den Kleinwagen. Wie entscheidet die Software, wessen Leben sie aufs Spiel setzt?

Inhalt:
  1. Autonome Fahrzeuge: Wenn Software über Leben und Tod entscheidet
  2. Lässt sich ein fahrerloses Auto hacken und austricksen?

Patrick Lin, Direktor der Ethics + Emerging Sciences Group an der California Polytechnic State University, hat solche Gedankenexperimente für das Magazin Wired durchgespielt. Schließlich würden autonom fahrende Autos wie das von Google vor allem deshalb entwickelt, weil sie in solchen Situationen aufgrund ihrer immer wachen Sensoren und ihrer Reaktionsschnelligkeit bessere Entscheidungen treffen können als ein Mensch. Sie können den zu erwartenden Schaden minimieren. Aber nach welchen Regeln das geschieht, müssen vorher die Programmierer festlegen.

Anders gefragt: Wessen Tod nehmen die autonomen Fahrzeuge (beziehungsweise deren Entwickler) in Kauf, wenn sie die eigenen Insassen schützen wollen? Für Lin sind das Fragen von Softwareethik, Moral und auch von Gesetzen und Geschäftsmodellen.

Allzu viel Zeit bleibt vielleicht nicht mehr, bis sie beantwortet werden müssen. Google will seine selbstfahrenden Autos schon 2017 so weit entwickelt haben, dass sie für die Öffentlichkeit auch jenseits der heutigen Testfahrten taugen. Vor Kurzem hat das Unternehmen bekanntgegeben, mittlerweile Tausende von Verkehrssituationen in der Stadt zu beherrschen.

Den behelmten Motoradfahrer verschonen oder den ohne Helm?

Stellenmarkt
  1. ING-DiBa AG, Nürnberg
  2. NCP engineering GmbH, Nürnberg

Lin beschreibt zunächst das Beispiel mit dem Geländewagen und dem Kleinwagen. Die Vernunft sagt: Der Geländewagen ist stabiler, seine Insassen sind besser geschützt als die des Kleinwagens. Also sollte das fahrerlose Auto besser mit dem Geländewagen kollidieren. Aber darf dessen Besitzer per Softwareprogrammierung eines anderen Fahrzeugs dafür bestraft werden, kein kleineres Auto gekauft zu haben? Dürfen Hersteller von besonders stabilen Autos bestraft werden, wodurch ihr Geschäftsmodell leiden könnte?

Und was Lin noch nicht einmal erwähnt: Muss man einen Kleinwagen fahren, um sich vor Unfällen mit autonomen Fahrzeugen zu schützen, wenn man damit gleichzeitig das Risiko eingeht, bei einem Unfall mit einem normalen Auto größere Schäden davonzutragen? Kommt es vielleicht auch darauf an, wie viele Menschen in den Autos links und rechts sitzen und in Gefahr geraten, und nicht nur auf die Bauart der beiden Wagen?

Beispiel zwei: Wenn ein selbstfahrendes Auto einen Unfall nicht mehr verhindern und nur noch entscheiden kann, ob es links den Motorradfahrer mit Helm oder rechts den ohne Helm trifft - welche Entscheidung ist dann die weniger falsche?

Die Vernunft sagt, der Motorradfahrer mit Helm hat die größere Chance, den Unfall zu überleben. Die Moral sagt, der ohne Helm sollte für sein verantwortungsloses oder sogar illegales Handeln nicht auch noch belohnt werden. Das Auto könnte dem Zufall die Entscheidung überlassen

"Schleier der Ignoranz"

Lin spielt eine Reihe von Lösungsmöglichkeiten durch. Die erste wäre ein Zufallszahlengenerator. Er würde anspringen, sobald das Auto einen Zusammenstoß links oder rechts als unausweichlich erkennen würde. Kommt dabei eine ungerade Zahl heraus, würde das Auto nach links ausweichen, bei einer geraden Zahl nach rechts. Das würde menschliches Handeln ansatzweise simulieren, weil Menschen in solchen Momenten keine durchdachte Reaktion mehr zeigen könnten.

Entscheidet das Auto aber zufällig, würde es sich praktisch selbst überflüssig machen. Die überlegene Reaktionsgeschwindigkeit in solchen kritischen Situationen ist einer der Hauptgründe, warum selbstfahrende Autos überhaupt entwickelt werden.

Eine Alternative zum Zufall wäre laut Lin ein "Schleier der Ignoranz": Die Entwickler der selbstfahrenden Autos könnten dafür sorgen, dass der Unfall-Algorithmus nicht weiß, was für Autos links und rechts von ihm fahren - ob es sich um Geländewagen oder Kleinwagen handelt. Dabei wäre es aber ein Unterschied, ob die Information gar nicht erst erhoben wird, oder ob sie von den Sensoren erfasst wird, aber nicht in den Algorithmus einfließt. Letzteres könnte ein rechtliches Problem sein, glaubt Lin. Denn die Autohersteller könnten möglicherweise dafür belangt werden, vorhandene Informationen nicht genutzt zu haben, um das Leben eines Menschen zu beschützen.

Lässt sich ein fahrerloses Auto hacken und austricksen? 
  1. 1
  2. 2
  3.  


Anzeige
Top-Angebote
  1. 219,90€
  2. (u. a. SanDisk SSD Plus 1 TB für 99€ + Versand oder Marktabholung)
  3. 339€ (Bestpreis!)

chrulri 19. Mai 2014

Fazit: Geschwindigkeit welche von den Autos aufgrund des Verkehrsaufkommens berechnet...

Gizeh 19. Mai 2014

Das richtige wäre dennoch, der Motorradfahrer nicht zu involvieren, da dieser als...

Gizeh 19. Mai 2014

Das will ich sehen, wie das innerorts einer schafft, ohne auf dem Gehweg zu fahren.

Gizeh 19. Mai 2014

Korrekt, der Smart ist auf die Knautschzone des anderen Unfallteilnehmers angewiesen

Gizeh 19. Mai 2014

Fußgänger und Radfahrer können auch eine entsprechende App auf ihren Smartphones...


Folgen Sie uns
       


Huawei zu Spionagevorwürfen im Golem.de Interview

Der deutsche Pressesprecher von Huawei erklärt den Umgang mit Spionagevorwürfen.

Huawei zu Spionagevorwürfen im Golem.de Interview Video aufrufen
Geforce GTX 1660 im Test: Für 230 Euro eine faire Sache
Geforce GTX 1660 im Test
Für 230 Euro eine faire Sache

Die Geforce GTX 1660 - ohne Ti am Ende - rechnet so flott wie AMDs Radeon RX 590 und kostet in etwa das Gleiche. Der klare Vorteil der Nvidia-Grafikkarte ist die drastisch geringere Leistungsaufnahme.

  1. EC2 G4 AWS nutzt Nvidias Tesla T4 für Inferencing-Cloud
  2. Zotac Geforce GTX 1660 Ti im Test Gute 1440p-Karte für unter 300 Euro
  3. Nvidia Turing OBS unterstützt Encoder der Geforce RTX

Fido-Sticks im Test: Endlich schlechte Passwörter
Fido-Sticks im Test
Endlich schlechte Passwörter

Sicher mit nur einer PIN oder einem schlechten Passwort: Fido-Sticks sollen auf Tastendruck Zwei-Faktor-Authentifizierung oder passwortloses Anmelden ermöglichen. Golem.de hat getestet, ob sie halten, was sie versprechen.
Ein Test von Moritz Tremmel

  1. Datenschutz Facebook speicherte Millionen Passwörter im Klartext
  2. E-Mail-Marketing Datenbank mit 800 Millionen E-Mail-Adressen online
  3. Webauthn Standard für passwortloses Anmelden verabschiedet

Flugzeugabsturz: Boeing 737 MAX geht wegen Softwarefehler außer Betrieb
Flugzeugabsturz
Boeing 737 MAX geht wegen Softwarefehler außer Betrieb

Wegen eines bekannten Softwarefehlers wird der Flugbetrieb für Boeings neustes Flugzeug fast weltweit eingestellt - Die letzte Ausnahme war: die USA. Der Umgang der amerikanischen Flugaufsichtsbehörde mit den Problemen des neuen Flugzeugs erscheint zweifelhaft.

  1. Boeing Rollout der neuen 777X in wenigen Tagen
  2. Boeing 747 Der Jumbo Jet wird 50 Jahre alt
  3. Lufttaxi Uber sucht eine weitere Stadt für Uber-Air-Test

    •  /