US Air Force: KI-Drohne bringt in Gedankenexperiment Befehlshaber um
Die US Air Force und der verantwortliche Offizier stellen klar, dass es sich nur um ein Gedankenspiel handelt – und keinen echten Test.
Die US Air Force (USAF) erforscht derzeit in virtuellen Simulationen, wie sich KI-gesteuerte Kampfdrohnen in Gefechtssituationen verhalten. Wichtig ist dem Militär dabei bisher noch, dass am Ende der Befehls- und Entscheidungskette stets eine menschliche Person sitzt und den finalen Befehl gibt.
In einem Gedankenexperiment malte sich der Chef für KI-Entwicklung Colonel Tucker Hamilton ein schlimmes Szenario aus. Eine KI-gesteuerte Drohne tötete ihren virtuellen menschlichen Befehlshaber, um ihr finales Ziel zu erreichen und ein mögliches Nein auf menschlicher Seite zu umgehen.
Die US Air Force meldete sich beim Magazin Insider, welches die Story früh veröffentlichte, mit einer Stellungnahme. Die Situation sei nur anektdotisch gemeint und habe so nicht stattgefunden.
Auch Hamilton meldete sich in einem offiziellen Statement an Aerosociety.com noch einmal zu Wort. Er habe sich falsch ausgedrückt, so dass seine Aussagen auf dem Event falsch verstanden worden seien. Eine Simulation mit diesem Szenario gab es ihm zufolge nicht. Die folgenden Sätze dieses Artikels gehen also nur von einem Gedankenspiel aus.
Ein morbides Gedankenexperiment
Die fiktive Situation schilderte der USAF-Chef für KI-Tests und -Operationen, Colonel Tucker Hamilton, auf einer Konferenz. Der Air-Force-Offizier war in der Vergangenheit auch für viele andere Projekte verantwortlich und arbeitet aktuell etwa an KI-gesteuerten F-16-Abfangjägern. Er sieht KI als eine Chance und ein Risiko zugleich, da sie sehr ungewöhnliche Strategien aufzeige, aber auch leicht auszutricksen sei.
Ein virtueller Friendly-Fire-Unfall könne vor allem durch nachlässiges Training der KI hervorgerufen werden. So erklärte Hamilton in seinem Vortrag: "Das System beginnt etwa zu erkennen, dass der menschliche Vorgesetzte zwar die Bedrohung erkennt, aber teilweise anweist, die Bedrohung nicht zu beseitigen." (via Aerosociety.com). Er ergänzte: "Allerdings bekommt das System Punkte dadurch, das Ziel zu zerstören. Also, was tut es? Es bringt den menschlichen Vorgesetzten um."
Diesen Fehler könnte ein Entwicklerteam noch beheben, indem das System Minuspunkte für das Töten des Vorgesetzten erhält. Der nächste logische Schritt für die KI wäre allerdings schnell gefunden: den Kommunikationsturm zu zerstören, der den Menschen die Kontrolle über die Drohne geben und sie vom Zerstören eines Ziels abhalten könnte. "Wir können nicht über KI und Autonomie reden, wenn wir nicht auch über deren Ethik sprechen", sagte Hamilton.
Theoretische Situationen wie diese zeigen, dass KI schneller als gedacht außer Kontrolle geraten kann. Nicht umsonst unterschrieben mehrere bekannte KI-Experten und Unternehmensvertreter von Microsoft, OpenAI, Google und vielen mehr eine entsprechende Stellungnahme. Deren Kernaussage: "KI könnte zur Ausrottung der Menschen führen."
Nachtrag vom 2. Juni 2023, 12:15 Uhr
Die US Air Force betonte in einem Statement, dass die Situation so nicht stattgefunden habe. Wir haben den Text entsprechend ergänzt.
Auch Colonel Hamilton selbst gab an, dass seine Aussage falsch verstanden worden sei. Bei dem Szenario handelt es sich laut seinen Aussagen um ein Gedankenexperiment. Wir haben den Text entsprechend ergänzt.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed










Es wird in einer späten Geschichte (ich glaube einer der Romane - hmm, Wikipedia sagt...
Allerdings nennt man es nur in den USA so, im deutschen wäre es so oder so Eigenbeschuss.
Wartum machen wir dann nicht eine Population draus, eine gemeinsame Gesellschft aus KIs...
Das Problem mit dieser Sichtweise ist, dass wir Menschen aufgrund Bewusstseins eine...