Abo
  • Services:

Cloud TPU: Googles neue Deep-Learning-Hardware braucht Flüssigkühlung

Für die dritte Version von Googles TPU nutzt das Unternehmen erstmals eine Flüssigkeitskühlung. Ein TPU-System für das maschinelle Lernen mit der neuen Generation soll über 100 Petaflops an Rechenleistung erreichen.

Artikel veröffentlicht am ,
Die TPUv3 benötigen eine Flüssigkeitskühlung.
Die TPUv3 benötigen eine Flüssigkeitskühlung. (Bild: Google/Screenshot: Golem.de)

Google arbeitet seit einigen Jahren an eigener spezieller Hardware zum Beschleunigen seiner Machine-Learning-Aufgaben. Dafür nutzt das Unternehmen die sogenannten Tensor Processing Units (TPUs). Die nun von Google-CEO Sundar Pichai vorgestellte dritte Version der TPU soll die Leistung der Systeme im Vergleich zu den Vorgängern nochmals massiv steigern und sich damit noch weiter von den oftmals genutzten Grafikkarten absetzen. Besonders wichtig dabei ist offenbar ein völlig überarbeitetes Kühlungskonzept für die Geräte.

Stellenmarkt
  1. Lotum GmbH, Bad Nauheim
  2. Bosch Gruppe, Leonberg

Denn wie Pichai in der Vorstellung erklärt, hat Google für die neuen TPUs erstmals überhaupt eine Flüssigkeitskühlung für Hardware in seinen Rechenzentren verbaut. Unter anderem damit erreichen die TPUv3 mehr als die achtfache Leistung der TPUv2. Laut Google erreiche das System so über 100 Petaflops.

Sowohl diese Angabe als auch die wenigen verfügbaren Bilder der TPUv3 legen nahe, dass der Aufbau der Geräte für die dritte Generation nicht fundamental verändert worden ist. So bietet eine einzelne Einheit der zweiten Generation der TPU eine Leistung von 180 Teraflops. Diese Module wiederum werden zu einem Pod aus 64 einzelnen Geräten zusammengefasst. Die etwas mehr als achtfache Leistung eines dieser Pods entspricht den in der Ankündigung genannten 100 Petaflops.

Monster-Hardware hängt Grafikkarten weiter ab

Ob und welche architektonischen Veränderungen Google an den eigentlichen TPU-Chips vorgenommen hat, um diese Leistung zu erreichen, ist zurzeit nicht bekannt. Möglich ist auch, dass Google zusätzlich zu der Kühlung auch die Größe der Pods erweitert hat, so spricht Pichai explizit von "Giant Pods".

Wie krass die Leistungsfähigkeit der neuen TPU von Google ist, zeigt ein Vergleich mit Nvidias aktuellem Deep-Learning-System DGX-2, das über 16 Tesla V100 als Rechenbeschleuniger verfügt. Dieses Komplettsystem von Nvidia erreicht eine theoretische Rechenleistung von 2 Petaflops. Nur einige wenige einzelne Module der TPUv3 sollten damit schnell über der Rechenleistung von Nvidias DGX-2 liegen.



Anzeige
Spiele-Angebote
  1. (-55%) 8,99€
  2. 32,99€ (erscheint am 15.02.)
  3. (-62%) 11,50€
  4. 2,99€

Bruto 09. Mai 2018

Und teurer ist er auch noch!


Folgen Sie uns
       


Raytracing in Metro Exodus im Test

Wir schauen uns Raytracing in Metro Exodus genauer an.

Raytracing in Metro Exodus im Test Video aufrufen
IT-Jobporträt Spieleprogrammierer: Ich habe mehr Code gelöscht als geschrieben
IT-Jobporträt Spieleprogrammierer
"Ich habe mehr Code gelöscht als geschrieben"

Wenn man im Game durch die weite Steppe reitet, auf Renaissance-Hausdächern kämpft oder stundenlang Rätsel löst, fragt man sich manchmal, wer das alles in Code geschrieben hat. Ein Spieleprogrammierer von Ubisoft sagt: Wer in dem Traumjob arbeiten will, braucht vor allem Geduld.
Von Maja Hoock

  1. Recruiting Wenn die KI passende Mitarbeiter findet
  2. Softwareentwicklung Agiles Arbeiten - ein Fallbeispiel
  3. IT-Jobs Ein Jahr als Freelancer

Chromebook Spin 13 im Alltagstest: Tolles Notebook mit Software-Bremse
Chromebook Spin 13 im Alltagstest
Tolles Notebook mit Software-Bremse

Bei Chromebooks denken viele an billige, knarzende Laptops - das Spin 13 von Acer ist anders. Wir haben es einen Monat lang verwendet - und uns am Ende gefragt, ob der veranschlagte Preis für ein Notebook mit Chrome OS wirklich gerechtfertigt ist.
Ein Test von Tobias Költzsch


    Begriffe, Architekturen, Produkte: Große Datenmengen in Echtzeit analysieren
    Begriffe, Architekturen, Produkte
    Große Datenmengen in Echtzeit analysieren

    Wer sich auch nur oberflächlich mit Big-Data und Echtzeit-Analyse beschäftigt, stößt schnell auf Begriffe und Lösungen, die sich nicht sofort erschließen. Warum brauche ich eine Nachrichten-Queue und was unterscheidet Apache Hadoop von Kafka? Welche Rolle spielt das in einer Kappa-Architektur?
    Von George Anadiotis


        •  /