Rechtliche und moralische Dimension
Immer wieder wird das Bild von Killerrobotern in Diskussionen gemalt, die vollkommen autonom, gesteuert durch eine KI, Menschen töten. Im Fachjargon werden solche Waffen als Lethal Autonomous Weapons (LAWS) bezeichnet. Bisher sind keine solchen vollautonomen Waffen öffentlich bekannt, wenngleich sich vor allem Drohnen verstärkt in diese Richtung entwickeln. Künstliche Intelligenz kann dazu ein Schlüssel sein und es ist bisher nicht absehbar, wann und wie LAWS in Zukunft in Erscheinung treten werden.
Die Vereinten Nationen versuchen seit 2018, LAWS zu ächten und damit zu verbieten, jedoch ist dies bisher immer gescheitert. Das Internationale Komitee vom Roten Kreuz strebt dagegen eine Regulierung dieser Waffengattung an, um vor allem auch den Schutz von Zivilisten zu gewährleisten.
Stand jetzt gibt es aber nach Kenntnis des Autors bisher nirgendwo auf der Welt Gesetze, die die Nutzung von autonomen Waffen regulieren. Sie sind damit genauso wie andere Waffensysteme lediglich nach der Genfer Konvention reguliert, wenngleich diese Regeln das Potenzial von LAWs eben nicht explizit berücksichtigen können.
Und wie positioniert sich die Europäische Union mit ihrem AI Act, der vor allem die ethische Dimension von KI-Nutzung in den Vordergrund stellt? Dieser klammert die militärische Nutzung von KI explizit aus.
Großmächte wie die USA stellen sich sogar recht offen gegen ein Verbot oder eine Regulierung von KI für militärische Zwecke. Stattdessen wollen die USA ihr Drohnenarsenal ausbauen und lassen dazu Tausende autonome Drohnen im Rahmen des Replicator-Programms entwickeln. Passenderweise werden die USA für die militärische KI-Forschung 2024 etwa 1,8 Milliarden US-Dollar investieren.
Zumindest nach Ansicht zahlreicher Beobachter scheint die Volksrepublik China ihr Militär aber noch stärker in Richtung KI zu entwickeln und sieht es wohl als Schlüsseltechnologie, um ein Militär von "Weltklasse" aufzubauen.
Chinas Engagement bei militärischer KI-Technologie
So wird vermutet, dass China mehr als das Dreifache der USA in die Entwicklung von militärischer KI-Technologie investiert. In diesem Sinne erscheint das Vorgehen der USA, China von IT-Hochtechnologie abzunabeln, etwa durch Verkaufsverbote von Nvidias aktuellen Top-GPUs, nicht nur rein wirtschaftlich, sondern auch stark militärisch getrieben zu sein.
Leistungsstarke Hardware ist im Bereich der KI-Forschung aber nur eine Seite der Medaille. Denn gerade neuartige Algorithmen, wie sie etwa die Transformer-Architektur seit 2017 oder neue LLM-Trainingstechniken darstellen, können auch ohne die neueste Hardware merkliche Effizienzen erreichen und KI auf ein neues Level bringen. Viele führende Tech-Unternehmen, wie Google oder OpenAI, erlauben laut ihren KI-Richtlinien keine militärische Nutzung ihrer Produkte.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
| LLMs für Aufklärung und Entscheidungsfindung | Nicht immer erkennbar, wofür KI-Modelle genutzt werden |










Wenn auf beiden Seiten nicht mehr Menschen kämpfen, sondern selbstständige...
Sie behebt halt die Fehler ihrer Schöpfer. Lösung: Einfach keine Fehler machen. Negativer...
Wieso leider?
Einen Hinweis darauf gibt der gestrige Tagesschau-Artikel "Viel mehr Ziele - und viel...