Machine Learning: Optimiertes Tensorflow kommt auf Mobilgeräte

Google setzt mittlerweile bei allen seinen Produkten auf maschinelles Lernen für Fähigkeiten sogenannter künstlicher Intelligenz. Speziell für diesen Zweck hat das Unternehmen die Open-Source-Bibliothek Tensorflow erstellt und mit den Tensor Processing Units (TPU) eigene Hardware für seine Rechenzentren entwickelt. Mit Tensorflow Lite, das Google auf der diesjährigen Entwicklermesse I/O ankündigte(öffnet im neuen Fenster) , soll es eine Version der Bibliothek geben, die speziell auf die Verwendung von Mobilgeräten zugeschnitten ist.
Die Lite-Variante basiert dabei auf dem Original und soll wie dieses später auch als Open-Source-Code zur freien Verwendung zur Verfügung stehen. Tensorflow Lite soll vor allem klein sein und schnell auf Embedded-Geräten ausgeführt werden können. Google bezieht diese Ankündigung zwar primär auf Mobilgeräte wie Smartphones, es ist aber wahrscheinlich, dass auch der Einsatz auf kleinen Bastelplatinen und Internet-of-Things-Geräten von Tensorflow Lite profitiert.
Zusätzlich zur abgespeckten Variante von Tensorflow soll eine API für neuronale Netze in das kommende Android O integriert werden. Diese soll von der Machine-Learning-Bibliothek genutzt werden können. Damit soll eine "Echtzeit-Leistung" auf Smartphones umgesetzt werden können, da darüber die eigentlichen Berechnungen beschleunigt werden sollen. Google geht sogar davon aus, dass Smartphone-Hersteller künftig eventuell eigene Hardware-Chips in ihre Geräte integrieren, auf denen das API für neuronale Netze und damit auch Tensorflow aufsetzen kann.
Tensorflow Lite und das API für neuronale Netze sollen in einem Maintenance-Update von Android O später in diesem Jahr veröffentlicht werden.