Abo
  • Services:
Anzeige
Googles Cloud TPU beschleunigen das Training beim Deep Learning.
Googles Cloud TPU beschleunigen das Training beim Deep Learning. (Bild: Google)

Cloud TPU: Google baut Monster-Hardware für Machine-Learning

Googles Cloud TPU beschleunigen das Training beim Deep Learning.
Googles Cloud TPU beschleunigen das Training beim Deep Learning. (Bild: Google)

Die zweite Generation von Googles TPU kann nicht nur Modelle anwenden, sondern beschleunigt auch massiv das Training für maschinelles Lernen. Ein Cluster aus 64 der neuen TPU erreicht 11,5 PFlops und kann in der Cloud gemietet werden.

Während Nvidia vergangene Woche noch seine neuen Grafikkarten für maschinelles Lernen angepriesen hat, sind auch GPUs für die Bedürfnisse von Google inzwischen zu langsam. Das Unternehmen hat deshalb eine zweite Generation seiner sogenannten Tensor Processing Units (TPU) vorgestellt, die nicht nur das Inferencing beschleunigen, sondern auch explizit das Training völlig neuer Modelle, wie Google-Chef Sundar Pichai auf der Google I/O bekräftigt.

Anzeige

Eine einzelne Einheit der zweiten Generation der TPU bietet laut Google eine Leistung von 180 Teraflops, wie es in der offiziellen Ankündigung heißt. Diese TPU wiederum besteht den Bildern zufolge aus vier dedizierten Chips auf einem Board. Zum Vergleich: Nvidias neue Tesla V100, die erst Ende dieses Jahres verfügbar sein wird, bietet eine theoretische Rechenleistung von 120 Teraflops. Dank einem eigenem "Hochgeschwindigkeitsnetzwerk" kann Google die neuen TPU zu einem Pod aus 64 einzelnen Geräten zusammenfassen. Dieser TPU-Pod liefere dann 11,5 Petaflops Rechenleistung. Google nutzt diese Systeme eigenen Angaben zufolge bereits zum Trainieren seiner Modelle.

  • Die zweite Generation der TPU von oben ... (Bild: Google)
  • ... und von der Seite. (Bild: Google)
  • Die neuen TPUs stapelt Google in seinen Rechenzentren zu Servern. (Bild: Google)
Die zweite Generation der TPU von oben ... (Bild: Google)

Die schiere Leistung der neuen TPU zeigt sich im Vergleich zu bisheriger GPU-Hardware. So benötigte das Trainieren eines neuronalen Netzes für die Übersetzung "auf 32 der besten kommerziell verfügbaren GPUs" einen ganzen Tag. Mit den neuen TPUs reiche für das Training dagegen nur einen "Nachmittag", bei der Verwendung von einem Achtel des TPU-Pods, also 8 TPU-Einheiten. Die erste Generation der TPU hat ausschließlich das Inferencing, also das Anwenden eines bereits trainierten Modells beschleunigt.

Kunden von Googles Cloud-Angeboten können auf die zweite Generation der TPU über das Angebot Cloud TPU zugreifen und diese gemeinsam mit dem Machine-Learning-Framework Tensorflow nutzen. Das Angebot steht derzeit als anmeldepflichtige Alpha bereit. Für Forscher, die sich die Nutzung der Cloud TPU nicht leisten können, bietet Google einen kostenlosen Zugang zu 1000 der Cloud TPU an. Organisiert wird dies über die Tensorflow Research Cloud.

Trotz der Einführung der Cloud TPU will Google sein Angebot der Cloud GPU weiter anbieten. Diese nutzen bisher GPUs von Nvidia.


eye home zur Startseite
Proctrap 19. Mai 2017

Richtig, die kleinen Einzelschritte sind nicht besonders intelligent, sie aber alle von...

__destruct() 18. Mai 2017

Tust du hier nix du text

windbeutel 18. Mai 2017

Alle anderen Benchmarks sind irrelevant.

Trollversteher 18. Mai 2017

Es müsste ja nicht nur DNA "simulieren" sondern sämtliche Differenzierungs-, Lebens- und...

DY 18. Mai 2017

war schon immer das wesentliche, wenn es im Kampf hoch her geht. Danke Golem für diese...



Anzeige

Stellenmarkt
  1. Diehl Aerospace GmbH, Frankfurt / Main
  2. Dr. August Oetker KG, Bielefeld
  3. L-Bank Staatsbank für Baden-Württemberg, Karlsruhe
  4. ING-DiBa AG, Frankfurt


Anzeige
Hardware-Angebote
  1. täglich neue Deals

Folgen Sie uns
       


  1. Rigiet

    Smartphone-Gimbal soll Kameras für wenig Geld stabilisieren

  2. Tele Columbus

    1 GBit würden "gegenwärtig nur die Nerds buchen"

  3. Systemkamera

    Leica CL verbindet Retro-Design mit neuester Technik

  4. Android

    Google bekommt Standortdaten auch ohne GPS-Aktivierung

  5. Kabelnetz

    Primacom darf Kundendaten nicht weitergeben

  6. SX-10 Aurora Tsubasa

    NECs Beschleuniger nutzt sechs HBM2-Stacks

  7. Virtual Reality

    Huawei und TPCast wollen VR mit 5G streamen

  8. Wayland-Desktop

    Nvidia bittet um Mitarbeit an Linux-Speicher-API

  9. Kabelnetz

    Vodafone liefert Kabelradio-Receiver mit Analogabschaltung

  10. Einigung erzielt

    EU verbietet Geoblocking im Online-Handel



Haben wir etwas übersehen?

E-Mail an news@golem.de


Anzeige
Doom-Brettspiel-Neuauflage im Test: Action am Wohnzimmertisch
Doom-Brettspiel-Neuauflage im Test
Action am Wohnzimmertisch
  1. Doom, Wolfenstein, Minecraft Nintendo kriegt große Namen
  2. Gamedesign Der letzte Lebenspunkt hält länger

iPhone X im Test: Es braucht schon Zwillinge, um Face ID zu überlisten
iPhone X im Test
Es braucht schon Zwillinge, um Face ID zu überlisten
  1. Homebutton ade 2018 sollen nur noch rahmenlose iPhones erscheinen
  2. Apple-Smartphone iPhone X knackt und summt - manchmal
  3. iPhone X Sicherheitsunternehmen will Face ID ausgetrickst haben

Cubesats: Startup steuert riesigen Satellitenschwarm von Berlin aus
Cubesats
Startup steuert riesigen Satellitenschwarm von Berlin aus
  1. SAEx Internet-Seekabel für Südatlantikinsel St. Helena
  2. The Cabin Satelliten-Internet statt 1 Million Euro an die Telekom
  3. Sputnik Piep, piep, kleiner Satellit

  1. Re: Das ist eine Frechheit

    DetlevCM | 08:41

  2. Re: Diese Nvidia-Eigenbrödlerei nervt!

    TeK | 08:40

  3. Re: The machine that builds the machine

    DeathMD | 08:40

  4. Re: Wieviel Akku vertrödelt eigentlich GPS permaON?

    Auf_zum_Atom | 08:39

  5. Re: Ist doch alles "kostenlos"

    DY | 08:39


  1. 07:38

  2. 20:00

  3. 18:28

  4. 18:19

  5. 17:51

  6. 16:55

  7. 16:06

  8. 15:51


  1. Themen
  2. A
  3. B
  4. C
  5. D
  6. E
  7. F
  8. G
  9. H
  10. I
  11. J
  12. K
  13. L
  14. M
  15. N
  16. O
  17. P
  18. Q
  19. R
  20. S
  21. T
  22. U
  23. V
  24. W
  25. X
  26. Y
  27. Z
  28. #
 
    •  / 
    Zum Artikel