• IT-Karriere:
  • Services:

Gutes Lernen, schlechtes Lernen und Eigen-KO

So zeigte sich bei zwei unterschiedlichen getesteten Methoden zum Lernen, dass der eine Algorithmus (Actor-Critic) beim Training gegen die KI des Spiels am Ende so agierte, wie dies von Menschen zu erwarten sei. Der zweite Algorithmus (Q-Learning) nutzte dagegen eine Schwäche des Spiels und konnte durch Eigen-KO des Gegners gewinnen, was dauerhaft reproduzierbar war. Beide Algorithmen konnten aber noch einfach von menschlichen Spielern geschlagen werden.

Stellenmarkt
  1. Ziehm Imaging GmbH, Nürnberg
  2. WBS GRUPPE, deutschlandweit (Home-Office)

Deshalb hat das Team in Anlehnung an die Vorgehensweise von Alpha Go seine Algorithmen gegen alte Versionen ihrer selbst antreten lassen. Damit war das Netzwerk schließlich in der Lage, nicht nur gegen menschliche Spieler mit Erfahrung in SSBM zu gewinnen, sondern auch gegen jene, die von der Spieler-Community als professionell und damit besonders gut eingeschätzt werden.

Doch auch diese Version des Algorithmus hatte große Schwierigkeiten damit, auf unerwartete Aktionen seiner Gegner reagieren zu können. Einem von den Autoren der Untersuchung als besonders clever bezeichneter Spieler ist es etwa mit einem Trick gelungen, den Actor-Critic-Algorithmus zum Verzicht auf einen Angriff zu zwingen und letztlich ebenfalls in ein Eigen-KO zu treiben.

Derartige Probleme hat das Team versucht zu überwinden, indem mittels verschiedener Spielcharaktere voneinander unabhängige neuronale Netze trainiert worden sind, die dann wiederum gegeneinander angetreten sind. Zuvor ist immer nur ein einzelner Charakter genutzt worden. So konnten die Algorithmen besser auf unerwartete Situationen reagieren.

KI ohne Erinnerung

Im Gegensatz zu Menschen, die kontinuierlich Reize aufnehmen, diese verarbeiten und in Reaktionen überführen können, kann das trainierte neuronale Netz immer nur auf einen einzelnen Zustand im Spiel reagieren. Dem Algorithmus fehlt damit sozusagen das Gedächtnis, um auf einen bestimmten Spielverlauf reagieren zu können.

Zwar gibt es mit den rekurrenten neuronalen Netzwerken (RNN) die Möglichkeit, diese Art Gedächtnis als eigenen Zustand zu emulieren, mit dem das Ergebnis einer Aktion direkt wieder in das Netz eingespeist wird. Dem Team gelang es in seiner Untersuchung jedoch nicht, ein fähiges RNN zu trainieren.

Ein RNN mit dem Gedächtnis könnte im Fall von SSBM künftig dazu genutzt werden, mit der eingangs erwähnten Zeitverzögerung umgehen zu können, die wie erwähnt in dem Spiel eine große Rolle einnimmt. Ebenso wäre ein RNN in der Lage, auch Geschosse, die in SSBM vorkommen, zu beurteilen und eventuell sogar selbst zu verwenden, indem deren Flugbahn bestimmt wird.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Deep Learning: Wenn die KI besser prügelt als Menschen
  1.  
  2. 1
  3. 2


Anzeige
Top-Angebote
  1. 154,99€ (Vergleichspreis 185€)
  2. (u. a. Horizon: Zero Dawn - Complete Edition (PC) für 38,99€, Wreckfest für 12,99€, Sekiro...
  3. (u. a. Sandisk Extreme PRO NVMe 3D SSD 1TB M.2 PCIe 3.0 für 145,90€ (mit Rabattcode...
  4. (u. a. Edifier R1280DB PC-Lautsprecher für 99,90€, Acer X1626H DLP-Beamer für 449, Grundig VCH...

violator 24. Feb 2017

Zufällig ja, aber eben ohne Taktik oder Gedanken. Da wird immer nur analysiert und...

JayJay15 24. Feb 2017

Es gibt doch nur 2 mögliche Entwicklungen im Bereich der KI. Ich bin nicht einer dieser...

Polinda Panda 24. Feb 2017

Vielleicht haben haben sie Spass am Spiel ...

Smincke 24. Feb 2017

In Melee ist Techskill wesentlich wichtiger als in den anderen Smash Teilen. Ein gut...


Folgen Sie uns
       


Streamen und Aufnehmen in OBS Studio - Tutorial

Wir erläutern in einem kurzen Video die Grundfunktionen von OBS-Studio.

Streamen und Aufnehmen in OBS Studio - Tutorial Video aufrufen
    •  /