• IT-Karriere:
  • Services:

Deep Learning: Tensorflow Lite wird noch kleiner als Tensorflow Mobile

Mit Tensorflow Lite veröffentlicht Google eine extrem kleine Variante seiner Machine-Learning-Bibliothek, die speziell für Mobil- und Embedded-Geräte gedacht ist. Auf Android-Geräten wird eine neue Beschleuniger-API verwendet.

Artikel veröffentlicht am ,
Tensorflow Lite soll Modelle auf Mobilgeräte beschleunigen.
Tensorflow Lite soll Modelle auf Mobilgeräte beschleunigen. (Bild: Google)

Die Verwendung von Deep-Learning-Modellen auf Smartphones und in deren Apps wird immer beliebter, einige Geräte nutzen inzwischen sogar spezielle Beschleunigerchips für die entsprechende Anwendung. Um die Verwendung seiner Machine-Learning-Bibliothek Tensorflow vor allem in diesem Bereich weiter zu verbessern hat Google eine Vorschau auf Tensorflow Lite veröffentlicht, das deutlich kleiner sein soll als das bisher dafür empfohlene Tensorflow Mobile.

Stellenmarkt
  1. wenglor sensoric GmbH, Tettnang
  2. Die Autobahn GmbH des Bundes, Montabaur

Die Lite-Variante ist nicht zum Training der Modelle gedacht, sondern lediglich zum Anwenden bereits trainierter Modelle, dem sogenannten Inferencing. Jene Modelle werden von Tensorflow Lite in ein neues Format überführt, das auf Googles Flatbuffers aufbaut, welche auf "maximale Geschwindigkeit und minimale Größe" optimiert worden sind.

Über eine C++-API, die unter Android über einen Java-Wrapper und unter iOS direkt bereitsteht, wird die optimierte Modell-Datei schließlich geladen und von einem Interpreter ausgeführt. Je nach Menge der genutzten Operatoren werden für den Interpreter dann nur noch zwischen 70 KByte (kein Operator geladen) und 300 KByte (alle Operatoren geladen) benötigt. Das sei eine deutliche Reduktion im Vergleich zu dem bisher für Tensorflow Mobile typischerweise benötigten 1,5 MByte, so Google. Unter Android wird der Interpreter die neue Android Neural Networks API zur Beschleunigung verwenden, falls verfügbar.

Zur schnellen Verwendung und zum einfachen Testen von Tensorflow Lite stellt Google bereits einige trainierte Modelle bereit, die auf den Mobileinsatz optimiert worden sind. Langfristig plant Google Tensorflow Lite als Ersatz für die bisherige Mobile-API von Tensorflow zu positionieren. Noch ist die Lite-Variante aber nur als Entwicklervorschau gedacht und nicht für den produktiven Einsatz.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Anzeige
Hardware-Angebote
  1. (reduzierte Überstände, Restposten & Co.)
  2. täglich neue Deals bei Alternate.de

Trollversteher 16. Nov 2017

Wenn Du meintest, ob Deep-Learning Netze die Zusammenfassung mehrerer einzelner...

iha (Golem.de) 16. Nov 2017

Danke für den Hinweis. Wir haben es verbessert.


Folgen Sie uns
       


    •  /