Google Deepmind: KI trainiert mit Games, um für die echte Welt zu lernen

Googles KI-Abteilung Deepmind hat mit Sima ein Modell vorgestellt, das lernen soll, menschliche Eingaben in Aktionen in Computerspielen umzusetzen. Der Scalable Instructable Multiworld Agent (Sima)(öffnet im neuen Fenster) wurde mit 600 einfachen Aufgaben trainiert, die innerhalb von 10 Sekunden erledigt werden können.
Beispielsweise soll Sima es schaffen, auf Kommando einen Baum in Valheim zu fällen, in No Man's Sky (g+) auf einen Asteroiden zu schießen oder in Goat Simulator 3 über einen Zaun zu springen. Auf der Webseite des Projekts werden dazu animierte GIFs der Aktionen mit den entsprechenden Prompts gezeigt, die in natürlicher Sprache erfolgen sollen.
Sima benötigt dafür keinen direkten Zugang zum Code oder zu den APIs der Spiele, sondern greift laut Google nur das Bild ab und setzt dieses in Tastatur- und Mauseingaben um. So soll Sima "potenziell mit jeder virtuellen Umgebung interagieren" können.
High Scores allein sind nicht nützlich genug
Dass KI-Modelle Spiele spielen, ist nicht neu. Deepmind selbst hatte mit Alphastar schon 2019 ein Model veröffentlicht , das sich im Strategiespiel Starcraft 2 gegen menschliche Spieler auf dem höchsten Niveau behaupten konnte.
Mit Sima geht es laut Deepmind allerdings nicht darum, einen High Score zu erreichen, sondern aus Videospielen Trainingsdaten für die echte Welt zu ziehen. "Zu lernen auch nur ein Videospiel zu spielen, ist eine technische Meisterleistung für ein KI-System" , so Deepmind. Die Forschung zeige, dass man diese Fähigkeiten auch in Aktionen in der echten Welt übersetzen könne. "Wir hoffen, dass Sima und andere Agents Videospiele als Sandkasten nutzen können, um besser zu verstehen, wie KI-Systeme hilfreicher werden können."
Zuletzt ließen die Forscher von Deepmind Spiele nicht spielen, sondern generieren .



