Original-URL des Artikels: https://www.golem.de/news/cloud-tpu-googles-neue-deep-learning-hardware-braucht-fluessigkuehlung-1805-134293.html    Veröffentlicht: 08.05.2018 20:42    Kurz-URL: https://glm.io/134293

Cloud TPU

Googles neue Deep-Learning-Hardware braucht Flüssigkühlung

Für die dritte Version von Googles TPU nutzt das Unternehmen erstmals eine Flüssigkeitskühlung. Ein TPU-System für das maschinelle Lernen mit der neuen Generation soll über 100 Petaflops an Rechenleistung erreichen.

Google arbeitet seit einigen Jahren an eigener spezieller Hardware zum Beschleunigen seiner Machine-Learning-Aufgaben. Dafür nutzt das Unternehmen die sogenannten Tensor Processing Units (TPUs). Die nun von Google-CEO Sundar Pichai vorgestellte dritte Version der TPU soll die Leistung der Systeme im Vergleich zu den Vorgängern nochmals massiv steigern und sich damit noch weiter von den oftmals genutzten Grafikkarten absetzen. Besonders wichtig dabei ist offenbar ein völlig überarbeitetes Kühlungskonzept für die Geräte.

Denn wie Pichai in der Vorstellung erklärt, hat Google für die neuen TPUs erstmals überhaupt eine Flüssigkeitskühlung für Hardware in seinen Rechenzentren verbaut. Unter anderem damit erreichen die TPUv3 mehr als die achtfache Leistung der TPUv2. Laut Google erreiche das System so über 100 Petaflops.

Sowohl diese Angabe als auch die wenigen verfügbaren Bilder der TPUv3 legen nahe, dass der Aufbau der Geräte für die dritte Generation nicht fundamental verändert worden ist. So bietet eine einzelne Einheit der zweiten Generation der TPU eine Leistung von 180 Teraflops. Diese Module wiederum werden zu einem Pod aus 64 einzelnen Geräten zusammengefasst. Die etwas mehr als achtfache Leistung eines dieser Pods entspricht den in der Ankündigung genannten 100 Petaflops.

Monster-Hardware hängt Grafikkarten weiter ab

Ob und welche architektonischen Veränderungen Google an den eigentlichen TPU-Chips vorgenommen hat, um diese Leistung zu erreichen, ist zurzeit nicht bekannt. Möglich ist auch, dass Google zusätzlich zu der Kühlung auch die Größe der Pods erweitert hat, so spricht Pichai explizit von "Giant Pods".

Wie krass die Leistungsfähigkeit der neuen TPU von Google ist, zeigt ein Vergleich mit Nvidias aktuellem Deep-Learning-System DGX-2, das über 16 Tesla V100 als Rechenbeschleuniger verfügt. Dieses Komplettsystem von Nvidia erreicht eine theoretische Rechenleistung von 2 Petaflops. Nur einige wenige einzelne Module der TPUv3 sollten damit schnell über der Rechenleistung von Nvidias DGX-2 liegen.  (sg)


Verwandte Artikel:
Deep Learning: Googles Cloud-TPU kosten 6,50 US-Dollar pro Stunde   
(12.02.2018, https://glm.io/132724 )
Project Brainwave: Microsoft beschleunigt KI-Technik mit Cloud-FPGAs   
(23.08.2017, https://glm.io/129644 )
Android TV: Google verteilt kostenlosen Streamingstick an Entwickler   
(09.05.2018, https://glm.io/134306 )
Augmented Reality: Google unterstützt mit ARCore künftig auch iOS   
(09.05.2018, https://glm.io/134308 )
Sprachassistent: Google Assistant fragt per Telefon nach   
(08.05.2018, https://glm.io/134292 )

© 1997–2019 Golem.de, https://www.golem.de/