25C3: Neue Regeln für die Entwicklung von Robotern
Der Science-Fiction-Autor Isaac Asimov stellte in der Kurzgeschichte Runaround aus dem Jahr 1942 drei Gesetze für Roboter(öffnet im neuen Fenster) auf. Roboter, so die erste und oberste Forderung Asimovs, dürfen Menschen keinen Schaden zufügen oder zulassen, dass Mensche zu Schaden kommen. Außerdem sollen sie Anweisungen Folge leisten und sich selbst schützen - vorausgesetzt, diese beiden Gesetze verstoßen nicht gegen das erste.
Diese Forderungen seien jedoch überholt, erklärte CCC-Mitglied Frank Rieger(öffnet im neuen Fenster) beim 25. Chaos Communication Congress (25C3). Längst hat sich das Militär der Robotertechnik angenommen und setzt erste, wenn auch noch ferngesteuerte Kampfroboter ein - was britische Friedensaktivisten zu der Forderung nach Ächtung autonomer Kampfroboter veranlasst hat.
Gefahr droht jedoch nicht nur von Maschinengewehren, die auf einem Roboter montiert sind. Software sei im Allgemeinen fehlerbehaftet und heutzutage so komplex, dass nicht vorhersehbar sei, was sie tue. Das aber werfe, so Rieger, die Frage auf, wer für Schäden, die durch die Fehlfunktion eines Roboters entstehen, verantwortlich sei: der Besitzer oder Betreiber des Roboters, der ihn einsetzt, der Administrator, der ihn wartet, der Hersteller, der ihn gebaut hat, oder der Programmierer, der die Steuerungssoftware geschrieben hat?
Erschwert werde die Klärung der Verantwortlichkeit zusätzlich durch die Tatsache, dass die Technik dem Mensch zunehmend Entscheidungen abnimmt. Gelte etwa für Kampfroboter noch, dass allein der Mensch die Waffen abfeuern darf, werden in Kampfflugzeugen schon die Waffencomputer in die Entscheidung einbezogen, indem sie von sich aus Ziele markieren, die der Pilot ins Visier nehmen kann. Denkbar sei schließlich, dass autonome Systeme am Ende ihre Entscheidungen selbst fällen, ohne dass der Mensch noch die Möglichkeit zum Eingreifen habe.
Richtet ein Roboter oder ein autonomes System Schaden an, so sollte dieser ausgeglichen werden können. Roboter sollten deshalb, forderte Rieger, eine Kennzeichnung vergleichbar dem Nummernschild eines Autos tragen. So könne zumindest der Besitzer festgestellt werden, dessen Versicherung dann für den Schaden aufkomme. Allerdings, so schränkte Rieger ein, sei die Versicherung von Robotern ein sehr heikles Thema: Werde Versicherbarkeit zum Kriterium für die Roboterentwicklung, dann werden nicht mehr die Funktionen der Systeme oder der Erfindergeist der Robotiker, sondern die Schadenstabellen der Versichungsunternehmen den Markt für Roboter bestimmen.
Rieger schlägt als Gegenmodell deshalb eine Selbstkontrolle für die Robotik vor - vergleichbar dem TÜV. Dessen Anfänge lagen im 19. Jahrhundert in unabhängigen regionalen Überwachungsorganisationen, die von Dampfkesselbesitzern gegründet wurden. Ziel war es, Dampfmaschinen sicherer zu machen, indem die Technik grundlegende Richtlinien für die Maschinen festlegten. Das Modell dieser Dampfkessel-Überwachungs- und Revisions-Vereine (DÜV), aus denen später der TÜV hervorgegangen ist, möchte das CCC-Mitglied gern auf die Robotik übertragen.
Das bedeutet, dass sich die Robotiker gegenseitig unterstützen und überwachen sollen. Wie einst die Dampfmaschinenbetreiber sollen sich 200 Jahre später die Roboterbauer zusammentun: Jeder soll, so die Idee, seine Entwicklungen Kollegen zur Untersuchung vorlegen. Gleichzeitig stellt er sich als Prüfer für andere zur Verfügung.
Die Prüfungen sollen sich dabei nicht auf die Untersuchung des Prototypen beschränken. Nach jeder Änderung und Erweiterung, durch die der Roboter die Möglichkeit bekommt, Menschen oder Dinge zu schädigen, solle er erneut einer Prüfung unterzogen werden. Dabei solle unter anderem geklärt werden, welche Fehlfunktionen auftreten können und welchen Schaden der Roboter überhaupt anrichten kann. Sollte es dennoch zu einem Unfall kommen, sei zudem dessen Analyse unerlässlich, um daraus lernen zu können. Diese Regeln seien vielleicht nicht perfekt, resümierte Rieger, aber sie stellten zumindest einen Anfang dar.



