Deepmind: Forscher untersuchen, wie KI-Systeme ticken
Miteinander oder gegeneinander? Forscher bei Google Deepmind wollten herausfinden, wie KI-Systeme miteinander interagieren. Bekämpfen sie sich, oder kooperieren sie? Das Ergebnis war durchaus menschlich.

Was führt eher zum Ziel: Kooperation oder Aggression? Das ist meist situationsabhängig. Und das nicht nur beim Menschen, wie Entwickler bei Google Deepmind herausgefunden haben. Sie haben erforscht, wie Agenten mit Künstlicher Intelligenz (KI) in bestimmten Situationen miteinander interagieren. Das ist wichtig, wenn künftig Multi-Agenten-Systeme eingesetzt werden sollen, um beispielsweise den Verkehr zu regeln oder die Wirtschaft zu steuern.
Die Forscher ließen KI-Systeme in zwei Computerspielen gegeneinander antreten, um herauszufinden, wie diese miteinander interagieren. Dabei hatten die KI-Spieler zwei Möglichkeiten, um zum Erfolg zu kommen: Sie konnten kooperativ handeln oder dem Gegner schaden. Zum Einsatz kamen Beispiele aus den Sozialwissenschaften und aus der Spieltheorie, etwa soziale Dilemmata wie das Gefangenendilemma.
Schießen oder sammeln?
Im Spiel Gathering mussten die beiden KI-Systeme so viele Äpfel sammeln wie möglich. Spieler haben zudem die Möglichkeit, die Gegner mit einem Laser zu beschießen. Trifft ein Spieler, wird der Gegner für eine Weile entfernt. Der erste Spieler hat dann keine Konkurrenz beim Sammeln. Ein aggressives Vorgehen könnte also bei dem Spiel erfolgversprechend sein.
Die KI-Agenten reagierten durchaus menschlich: Sie lernten, dass aggressives Verhalten angebracht ist, wenn Ressourcen, also die Äpfel, knapp sind. So lange genügend Äpfel da waren, begnügten die Systeme sich mit dem Sammeln.
Wird es knapp - zieh deine Waffe
Waren aber nur noch wenige Äpfel verfügbar, griffen die KI-Spieler eher mal zum Laser, um dem Gegner eins überzubraten und ihn außer Gefecht zu setzen. "Eine weniger aggressive Verhaltensweise ergibt sich aus einem Lernprozess in einer relativ reichhaltigen Umgebung mit weniger Möglichkeiten für aufwendige Maßnahmen", schreiben die Forscher in einem Aufsatz.
Das Bild änderte sich, als eine leistungsfähigere KI ins Spiel kam, die komplexere Strategien anwenden kann. Sie tendierte dazu, auf den Gegner zu schießen - egal, wie viele Äpfel noch da waren.
Wölfe jagen gemeinsam
Beim zweiten Spiel, Wolfpack, übernehmen die KI-Spieler jeweils einen Wolf. Gemeinsam müssen sie eine Beute zwischen Hindernissen jagen. Die Idee dahinter: Die Beute ist gefährlich, also einfacher zu erlegen, wenn beide zusammenarbeiten. Außerdem ist die Gefahr, die Beute an Aasfresser zu verlieren, bei zwei Wölfen geringer.
Wie beim ersten lernten die KI-Spieler auch im Laufe des zweiten Spiels dazu. Hier hätten - anders als bei Gathering - die leistungsfähigeren KI-Systeme gemerkt, dass Kooperation die Strategie sei, die zum Erfolg führe. Die größere Fähigkeit, komplexe Strategien zu nutzen, habe also zu mehr Kooperation der KI-Agenten geführt, sagen die Forscher.
Das Verhalten der KI-Agenten ändert sich demnach abhängig von der Situation, in der sie sich befinden: Hat der Agent mehr Erfolg durch Aggression, ist er aggressiv. Erscheint Kooperation die bessere Variante, kooperiert er. Durch ihre Studie seien sie jetzt in der Lage, resümieren die Forscher, "komplexe Multi-Agenten-Systeme wie die Wirtschaft, Verkehrssysteme oder die ökologische Gesundheit unseres Planeten besser zu verstehen und zu steuern - die alle von unserer Zusammenarbeit abhängen".
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Warum sollte man dann überhaupt lähmen? Eine Handlung die keinen Vorteil bringt wird von...
Das erklärt allerdings nicht, warum ständig in beliebige Richtungen geballert wird, da...
immer wieder gut (:
an sich ist doch demnach schlecht, da es nur in gewissen Situationen erlaubt, sich aus...