Cloud TPU: Google baut Monster-Hardware für Machine-Learning

Die zweite Generation von Googles TPU kann nicht nur Modelle anwenden, sondern beschleunigt auch massiv das Training für maschinelles Lernen. Ein Cluster aus 64 der neuen TPU erreicht 11,5 PFlops und kann in der Cloud gemietet werden.

Artikel veröffentlicht am ,
Googles Cloud TPU beschleunigen das Training beim Deep Learning.
Googles Cloud TPU beschleunigen das Training beim Deep Learning. (Bild: Google)

Während Nvidia vergangene Woche noch seine neuen Grafikkarten für maschinelles Lernen angepriesen hat, sind auch GPUs für die Bedürfnisse von Google inzwischen zu langsam. Das Unternehmen hat deshalb eine zweite Generation seiner sogenannten Tensor Processing Units (TPU) vorgestellt, die nicht nur das Inferencing beschleunigen, sondern auch explizit das Training völlig neuer Modelle, wie Google-Chef Sundar Pichai auf der Google I/O bekräftigt.

Stellenmarkt
  1. Project Consultant - Innovation Scouting & Implementation (m/w/x)
    ALDI SÜD Dienstleistungs-SE & Co. oHG, Mülheim an der Ruhr
  2. Referent (m/w/d) für den Bereich Infomationstechnologie
    Erzbistum Paderborn, Dortmund
Detailsuche

Eine einzelne Einheit der zweiten Generation der TPU bietet laut Google eine Leistung von 180 Teraflops, wie es in der offiziellen Ankündigung heißt. Diese TPU wiederum besteht den Bildern zufolge aus vier dedizierten Chips auf einem Board. Zum Vergleich: Nvidias neue Tesla V100, die erst Ende dieses Jahres verfügbar sein wird, bietet eine theoretische Rechenleistung von 120 Teraflops. Dank einem eigenem "Hochgeschwindigkeitsnetzwerk" kann Google die neuen TPU zu einem Pod aus 64 einzelnen Geräten zusammenfassen. Dieser TPU-Pod liefere dann 11,5 Petaflops Rechenleistung. Google nutzt diese Systeme eigenen Angaben zufolge bereits zum Trainieren seiner Modelle.

  • Die zweite Generation der TPU von oben ... (Bild: Google)
  • ... und von der Seite. (Bild: Google)
  • Die neuen TPUs stapelt Google in seinen Rechenzentren zu Servern. (Bild: Google)
Die zweite Generation der TPU von oben ... (Bild: Google)

Die schiere Leistung der neuen TPU zeigt sich im Vergleich zu bisheriger GPU-Hardware. So benötigte das Trainieren eines neuronalen Netzes für die Übersetzung "auf 32 der besten kommerziell verfügbaren GPUs" einen ganzen Tag. Mit den neuen TPUs reiche für das Training dagegen nur einen "Nachmittag", bei der Verwendung von einem Achtel des TPU-Pods, also 8 TPU-Einheiten. Die erste Generation der TPU hat ausschließlich das Inferencing, also das Anwenden eines bereits trainierten Modells beschleunigt.

Kunden von Googles Cloud-Angeboten können auf die zweite Generation der TPU über das Angebot Cloud TPU zugreifen und diese gemeinsam mit dem Machine-Learning-Framework Tensorflow nutzen. Das Angebot steht derzeit als anmeldepflichtige Alpha bereit. Für Forscher, die sich die Nutzung der Cloud TPU nicht leisten können, bietet Google einen kostenlosen Zugang zu 1000 der Cloud TPU an. Organisiert wird dies über die Tensorflow Research Cloud.

Golem Akademie
  1. Cinema 4D Grundlagen: virtueller Drei-Tage-Workshop
    14.–16. März 2022, Virtuell
  2. CEH Certified Ethical Hacker v11: virtueller Fünf-Tage-Workshop
    21.–25. Februar 2022, Virtuell
Weitere IT-Trainings

Trotz der Einführung der Cloud TPU will Google sein Angebot der Cloud GPU weiter anbieten. Diese nutzen bisher GPUs von Nvidia.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Proctrap 19. Mai 2017

Richtig, die kleinen Einzelschritte sind nicht besonders intelligent, sie aber alle von...

__destruct() 18. Mai 2017

Tust du hier nix du text

windbeutel 18. Mai 2017

Alle anderen Benchmarks sind irrelevant.

Trollversteher 18. Mai 2017

Es müsste ja nicht nur DNA "simulieren" sondern sämtliche Differenzierungs-, Lebens- und...

Anonymer Nutzer 18. Mai 2017

war schon immer das wesentliche, wenn es im Kampf hoch her geht. Danke Golem für diese...



Aktuell auf der Startseite von Golem.de
Energiespeicher
Große Druckluftspeicher locken Investorengelder an

Hydrostor bietet eine langlebige Alternative zu Netzspeichern aus Akkus, die zumindest in den 2020er Jahren wirtschaftlich ist.
Von Frank Wunderlich-Pfeiffer

Energiespeicher: Große Druckluftspeicher locken Investorengelder an
Artikel
  1. Ransomware: Jeder hat Daten, die eine Erpressung wert sind
    Ransomware
    Jeder hat Daten, die eine Erpressung wert sind

    Unbenutzbare Systeme, verlorene Daten und Schaden in Millionenhöhe: Wie ich einen Emotet-Angriff erlebt habe.
    Ein Erfahrungsbericht von Lutz Olav Däumling

  2. Star Trek: Neuigkeiten zu Discovery, Picard und weiteren Serien
    Star Trek
    Neuigkeiten zu Discovery, Picard und weiteren Serien

    Die zweite Hälfte von Star Trek: Discovery kommt ab Februar auf Pluto TV. Außerdem gibt es Termine für weitere Star-Trek-Serien.

  3. AMD Radeon RX 6500 XT startet heute den Verkauf
     
    AMD Radeon RX 6500 XT startet heute den Verkauf

    Der erste Launch einer Grafikkarte in diesem Jahr steht heute an: mit der Radeon RX 6500 XT schickt AMD seine günstigste neue Karte ins Rennen.
    Ausgewählte Angebote des E-Commerce-Teams

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • LG OLED 55" 120Hz 999€ • MindStar (u.a. NZXT WaKü 129€, GTX 1660 499€) • Seagate Firecuda 530 1TB inkl. Kühlkörper + 20€ PSN-Guthaben 189,90€ • Sony Pulse 3D Wireless PS5 Headset 79,99€ • Samsung 16GB DDR5-4800 199€ • Huawei MateBook 16,1" 16GB 512GB SSD 709€ [Werbung]
    •  /