Machine Learning: Google will effizientes Deep Learning in kleiner Umgebung

In seinem KI-Blog geht ein Forschungsteam von Google der Frage nach, ob und inwiefern die massive Rechenkraft, die für die meisten Arbeiten zu Deep Learning notwendig ist, reduziert werden kann. Zwar sorge Deep Learning für enorme Fortschritte, "dieser Fortschritt war jedoch mit sehr hohen Rechenkosten verbunden, was den unglücklichen Nebeneffekt hat, dass sich die Kluft zwischen denen mit ausreichendem Zugang zu Rechenressourcen und denen ohne vergrößert" , heißt es dazu in dem Blog-Eintrag(öffnet im neuen Fenster) .
In der Untersuchung greift das Team dabei auf den sogenannten Rainbow-Algorithmus zurück und überprüft dessen Funktionsweise in kleinen und mittelgroßen Aufgaben. Um dessen Fähigkeiten und die anderen Algorithmen zu überprüfen, wird zum Beispiel auf die Evaluationsplattform Arcade Learning Environment (ALE) zurückgegriffen. Diese besteht aus 57 Spielen für den Atari 2600, die Agenten lernen müssen zu spielen.
Für eine aussagekräftige Untersuchung dazu seien typischerweise 34.200 GPU-Rechenstunden oder 1.425 Tage notwendig. Der Wert bezieht sich auf die Tesla-P100-GPU. Sinnvoll umsetzbar ist die Forschung also nur, wenn mit sehr vielen GPUs parallel trainiert werden kann. Das ist für kleine Teams mit wenig Ressourcen aber oft sehr schwierig.
Eingeschränktes Training bringt gleiche Ergebnisse
Das Team hat nun einzelne Optimierungen des Rainbow-Algorithmus erneut untersucht, aber nur auf einer sehr kleinen Testumgebung, die in 10 bis 20 Minuten trainiert werden kann, statt über Tage hinweg. Das Training wurde außerdem in der Min-Atar-Umgebung durchgeführt, die aus fünf verkleinerten Atari-Spielen besteht.
Die auf diesen kleineren Umgebungen durchgeführten Experimente zeigen laut dem Team von Google dabei die gleichen Ergebnisse wie in der originalen Untersuchung zum Rainbow-Algorithmus, die mit deutlich mehr Rechenaufwand durchgeführt wurde.
Zusammenfassend heißt es dazu: "Offensichtlich ist es viel einfacher, etwas noch einmal zu untersuchen, als es erst einmal zu entdecken. Unsere Absicht mit dieser Arbeit war es jedoch, für die Relevanz und Bedeutung empirischer Forschung mit kleinen und mittelgroßen Umgebungen zu argumentieren. Wir glauben, dass sich diese weniger rechenintensiven Umgebungen gut für eine kritischere und gründlichere Analyse der Leistung, des Verhaltens und der Feinheiten neuer Algorithmen eignen."



