Dopamine: Google-Framework soll Machine Learning reproduzierbar machen

Aktuelle Forschungsarbeiten zum maschinellen Lernen haben aus unterschiedlichen Gründen oft das Problem, dass deren Ergebnisse nicht reproduzierbar sind. Das Team von Googles KI-Forschungsabteilung Google Brain schreibt dazu in der Ankündigung(öffnet im neuen Fenster) : "Die Reproduzierbarkeit der Ergebnisse aus bestehenden Frameworks ist oft zu zeitaufwendig, was zu Problemen bei der wissenschaftlichen Reproduzierbarkeit führen kann" . Mit dem nun verfügbaren Framework Dopamine(öffnet im neuen Fenster) will Google Brain dieses und weitere Probleme lösen.
Dopamine selbst basiert auf dem vom Google initiierten Machine-Learning-Framework Tensorflow und ist wie dieses in Python geschrieben. Gedacht ist Dopamine für die schnelle und experimentelle Forschungsarbeit im Bereich des sogenannten bestärkenden Lernens (Reinforcement Learning). Hierbei erlernt eine als Agent bezeichnete Software eigenständig eine möglichst optimale Lösung für bestimmte Probleme.
Forscher sollen mit Dopamine vergleichsweise schnell und einfach ihre Designs verbessern, verändern oder gar verwerfen können und ihre Arbeit trotz dieser möglichen Störungen zum Ziel bringen. Um das zu erreichen, ist Dopamine relativ klein gehalten und das Team setzt seinen Fokus dafür auf die Arcade Learning Environment(öffnet im neuen Fenster) (ALE). Dabei handelt es sich um eine Evaluationsplattform für die Agenten auf Basis Hunderter Spiele für den Atari 2600. Als Teil von Dopamine selbst bietet Google außerdem vier verschiedene Agenten an.
Um die gewünschte Reproduzierbarkeit zu erreichen, stellt das Team vollständige Tests für den Code bereit, wobei die Tests auch als weiterführende Dokumentation gesehen werden könnten, wie es in der Ankündigung heißt. Darüber hinaus folgt das Framework den Empfehlungen einer Forschungsarbeit(öffnet im neuen Fenster) , die darlegt, wie die empirische Evaluation mit dem ALE standardisiert werden könnte.