Lässt sich ein fahrerloses Auto hacken und austricksen?
Kommt es zum Prozess - weil etwa die Angehörigen eines Unfallopfers den Hersteller des autonomen Fahrzeugs verklagen - ergeben sich laut Lin ganz neue rechtliche Fragen: Die Software-Programmierer hätten ja bei der Entwicklung genug Zeit gehabt, die "richtige" Entscheidung einzuprogrammieren. Damit würde der Affekt als Ursache für den Tod eines Menschen also ausfallen. Der Unfall wäre möglicherweise näher am Mord als am Totschlag.
Es gibt noch eine ganze Reihe weiterer Fragen und Gedankenspiele, die sich anschließen und die Lin zum Teil hier nennt: Welche Versicherung versichert den Geländewagenfahrer gegen Unfälle mit autonom fahrenden Fahrzeugen? Wer haftet, wenn deren Bordcomputer abstürzt und keine "am wenigsten falsche" Reaktion mehr zeigen kann? Lässt sich ein fahrerloses Auto austricksen - kann man ihm als Motorradfahrer vorgaukeln, ein Geländewagen zu sein?
Aus Lins Gedankenspielen könnten schon bald drängende Fragen werden. Das wissen die Entwickler autonom fahrender Autos wie zum Beispiel Daniel Göhring. Er ist Teamleiter der Autonomos Labs der FU Berlin, die ein solches Fahrzeug entwickeln, und sagt: "Unser autonomes Fahrzeug verwendet für die Erfassung anderer Verkehrsteilnehmer sowie von Hindernissen vorrangig Laserscanner, Radarsysteme sowie Stereokamerasysteme. Damit wäre es möglich und auch wünschenswert, Fahrzeugklassen und unterschiedliche Verkehrsteilnehmer zu unterscheiden. Für die Situationsvorhersage ist das schon heute relevant. Mit fortschreitender technologischer Entwicklung werden ethische Fragen an Relevanz gewinnen."
Bisher behandele das Auto der FU "alle Verkehrsteilnehmer äquivalent", sagt Göhring. "Fahren wir beispielsweise auf einer zweispurigen Straße und es befindet sich ein Hindernis auf unserer Spur, führen wir Spurwechsel nur dann durch, wenn die andere Fahrspur frei ist und keine Gefährdung anderer Verkehrsteilnehmer entsteht. Um solche gefährlichen Situationen innerhalb unserer Entwicklung gänzlich zu vermeiden, befindet sich an Bord unserer autonomen Fahrzeuge immer ein Sicherheitsfahrer." Was aber passiert, wenn der nicht mehr rechtzeitig eingreifen kann?
Der Preis, den wir zahlen müssen?
Kate Darling, Expertin für Roboterethik am MIT Media Lab in Cambridge, Massachusetts, sagt: "Manche mögen argumentieren, dass solche Unfälle sehr selten sein werden. Da fahrerlose Autos sehr viel sicherer und vorhersehbarer fahren als Menschen es tun, könnte man das unausgewogene Verhalten der Autos in diesen Extremfällen als vernünftigen Preis ansehen, den wir halt zahlen müssen. Aber solche Unfälle und ihre Entstehungsgeschichte könnten die öffentliche Wahrnehmung massiv beeinflussen. Das kann von Gerichtsurteilen bis hin zu einem generellen Widerstand gegen die Technik reichen."
Es sei wohl in jedermanns Interesse, wenn das Verhalten der Autos gesetzlichen Standards unterliege, sagt Kate Darling: "Standards, die nicht nur direkte Kosten berücksichtigen, sondern auch das, was die Gesellschaft von diesen Autos erwartet." Der erste Schritt sei es, öffentliche Aufmerksamkeit zu schaffen, denn "das hier ist keine Science-Fiction-Zukunft, wir müssen jetzt darüber reden".
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Autonome Fahrzeuge: Wenn Software über Leben und Tod entscheidet |
- 1
- 2
Fazit: Geschwindigkeit welche von den Autos aufgrund des Verkehrsaufkommens berechnet...
Das richtige wäre dennoch, der Motorradfahrer nicht zu involvieren, da dieser als...
Das will ich sehen, wie das innerorts einer schafft, ohne auf dem Gehweg zu fahren.
Korrekt, der Smart ist auf die Knautschzone des anderen Unfallteilnehmers angewiesen