Original-URL des Artikels: https://www.golem.de/news/machine-learning-googles-mini-tpu-kosten-mit-board-150-us-dollar-1903-139824.html    Veröffentlicht: 06.03.2019 12:30    Kurz-URL: https://glm.io/139824

Machine Learning

Googles Mini-TPU kostet mit Board 150 US-Dollar

Um Machine-Learning-Modelle künftig noch schneller in sogenannten Edge-Geräten zu verwenden, verkauft Google nun wie angekündigt seine Edge-TPU. Diese gibt es als Entwicklerboard, als System-on-Module oder USB-Beschleuniger.

Als Teil seiner Coral-Plattform für lokale KI-Anwendungen stellt Google nun eine verkleinerte Variante seiner sogenannten TPUs (Tensor Processing Unit) auch für interessierte Endkunden bereit. Der vergleichsweise kleine Ableger der Cloud-Variante soll als Edge-TPU das Inferencing - also das Anwenden der Modelle - beschleunigen. Dazu stellt Google wie im vergangenen Sommer angekündigt nun ein USB-Beschleuniger-Modul sowie ein Entwicklerboard mit den Chips bereit.

Als Grundlage für das Entwicklerboard dient i.MX 8M SOC von NXP, dem 1 GByte LPDDR4 als Arbeitsspeicher und 8 GByte eMMC-Flashspeicher zur Verfügung stehen. Zur Anbindung gibt es WLAN nach 802.11ac, USB 3.0, Gigabit-Ethernet sowie einen 40-Pin-GPIO-Anschluss. Hinzu kommen ein Slot für MicroSD-Karten, Audioausgänge, HDMI 2.0a und Anschlüsse für Kameramodule. Die Platine selbst verwendet ein sogenanntes System-on-Module (SoM) aus SoC, eMMC, WLAN und eben der Edge-TPU.

Auf dem Board läuft das Debian-Derivat Mendel Linux sowie das für das Inferencing gedachte Machine-Learning-Framework Tensorflow Lite. Deshalb wird auch Python als Programmiersprache von Haus aus unterstützt, immerhin ist Tensorflow in Python geschrieben. Die native Programmierung in C++ soll künftig ebenfalls möglich werden. Derzeit vertreibt Google das Board über den Elektronik-Fachhändler Mouser in den USA für rund 150 US-Dollar. Das SoM ist abnehmbar und soll künftig separat erhältlich sein, ebenso wie ein PCIe-Beschleuniger, auf dem das SoM angebracht werden kann.

Für jene Nutzer, die tatsächlich nur das Inferencing ihrer Modelle beschleunigen wollen und keine weitere Peripherie und Anschlüsse benötigen, bietet Google außerdem einen USB-Beschleuniger an. Dabei handelt es sich nur noch um die Edge-TPU in einem kleinen Gehäuse, die per USB-C an einen Rechner angeschlossen wird. Diese kostet rund 80 US-Dollar.  (sg)


Verwandte Artikel:
Sicherheitsupdate: Chrome-Schwachstelle wird aktiv genutzt   
(06.03.2019, https://glm.io/139833 )
Machine Learning: Google bringt Mini-TPU zur Modell-Anwendung   
(26.07.2018, https://glm.io/135707 )
Machine Learning: Facebooks KI-Chef sucht neue Sprache für Deep Learning   
(19.02.2019, https://glm.io/139472 )
Machine Learning: Google spendiert Wikipedia Millionen und Gratis-Übersetzung   
(23.01.2019, https://glm.io/138914 )
ML Kit: Google bringt KI-API auf Android und iOS   
(08.05.2018, https://glm.io/134296 )

© 1997–2019 Golem.de, https://www.golem.de/