Abo
  • Services:
Anzeige
Googles Cloud TPU beschleunigen das Training beim Deep Learning.
Googles Cloud TPU beschleunigen das Training beim Deep Learning. (Bild: Google)

Cloud TPU: Google baut Monster-Hardware für Machine-Learning

Googles Cloud TPU beschleunigen das Training beim Deep Learning.
Googles Cloud TPU beschleunigen das Training beim Deep Learning. (Bild: Google)

Die zweite Generation von Googles TPU kann nicht nur Modelle anwenden, sondern beschleunigt auch massiv das Training für maschinelles Lernen. Ein Cluster aus 64 der neuen TPU erreicht 11,5 PFlops und kann in der Cloud gemietet werden.

Während Nvidia vergangene Woche noch seine neuen Grafikkarten für maschinelles Lernen angepriesen hat, sind auch GPUs für die Bedürfnisse von Google inzwischen zu langsam. Das Unternehmen hat deshalb eine zweite Generation seiner sogenannten Tensor Processing Units (TPU) vorgestellt, die nicht nur das Inferencing beschleunigen, sondern auch explizit das Training völlig neuer Modelle, wie Google-Chef Sundar Pichai auf der Google I/O bekräftigt.

Anzeige

Eine einzelne Einheit der zweiten Generation der TPU bietet laut Google eine Leistung von 180 Teraflops, wie es in der offiziellen Ankündigung heißt. Diese TPU wiederum besteht den Bildern zufolge aus vier dedizierten Chips auf einem Board. Zum Vergleich: Nvidias neue Tesla V100, die erst Ende dieses Jahres verfügbar sein wird, bietet eine theoretische Rechenleistung von 120 Teraflops. Dank einem eigenem "Hochgeschwindigkeitsnetzwerk" kann Google die neuen TPU zu einem Pod aus 64 einzelnen Geräten zusammenfassen. Dieser TPU-Pod liefere dann 11,5 Petaflops Rechenleistung. Google nutzt diese Systeme eigenen Angaben zufolge bereits zum Trainieren seiner Modelle.

  • Die zweite Generation der TPU von oben ... (Bild: Google)
  • ... und von der Seite. (Bild: Google)
  • Die neuen TPUs stapelt Google in seinen Rechenzentren zu Servern. (Bild: Google)
Die zweite Generation der TPU von oben ... (Bild: Google)

Die schiere Leistung der neuen TPU zeigt sich im Vergleich zu bisheriger GPU-Hardware. So benötigte das Trainieren eines neuronalen Netzes für die Übersetzung "auf 32 der besten kommerziell verfügbaren GPUs" einen ganzen Tag. Mit den neuen TPUs reiche für das Training dagegen nur einen "Nachmittag", bei der Verwendung von einem Achtel des TPU-Pods, also 8 TPU-Einheiten. Die erste Generation der TPU hat ausschließlich das Inferencing, also das Anwenden eines bereits trainierten Modells beschleunigt.

Kunden von Googles Cloud-Angeboten können auf die zweite Generation der TPU über das Angebot Cloud TPU zugreifen und diese gemeinsam mit dem Machine-Learning-Framework Tensorflow nutzen. Das Angebot steht derzeit als anmeldepflichtige Alpha bereit. Für Forscher, die sich die Nutzung der Cloud TPU nicht leisten können, bietet Google einen kostenlosen Zugang zu 1000 der Cloud TPU an. Organisiert wird dies über die Tensorflow Research Cloud.

Trotz der Einführung der Cloud TPU will Google sein Angebot der Cloud GPU weiter anbieten. Diese nutzen bisher GPUs von Nvidia.


eye home zur Startseite
Proctrap 19. Mai 2017

Richtig, die kleinen Einzelschritte sind nicht besonders intelligent, sie aber alle von...

Themenstart

__destruct() 18. Mai 2017

Tust du hier nix du text

Themenstart

windbeutel 18. Mai 2017

Alle anderen Benchmarks sind irrelevant.

Themenstart

Trollversteher 18. Mai 2017

Es müsste ja nicht nur DNA "simulieren" sondern sämtliche Differenzierungs-, Lebens- und...

Themenstart

DY 18. Mai 2017

war schon immer das wesentliche, wenn es im Kampf hoch her geht. Danke Golem für diese...

Themenstart

Kommentieren



Anzeige

Stellenmarkt
  1. MEMMERT GmbH + Co. KG, Schwabach (Metropolregion Nürnberg)
  2. DRÄXLMAIER Group, Vilsbiburg bei Landshut
  3. Brabbler Secure Message and Data Exchange Aktiengesellschaft, München
  4. Syna GmbH, Frankfurt am Main


Anzeige
Top-Angebote
  1. (u. a. Bose Soundlink Mini Bluetooth Speaker II 149,90€)
  2. (alle Angebote versandkostenfrei, u. a. Prey (Day One Edition) PC/Konsole 35,00€, Yakuza Zero PS4...
  3. 44,00€

Folgen Sie uns
       


  1. Die Woche im Video

    Verbogen, abgehoben und tiefergelegt

  2. ZTE

    Chinas großes 5G-Testprojekt läuft weiter

  3. Ubisoft

    Far Cry 5 bietet Kampf gegen Sekte in und über Montana

  4. Rockstar Games

    Waffenschiebereien in GTA 5

  5. Browser-Games

    Unreal Engine 4.16 unterstützt Wasm und WebGL 2.0

  6. Hasskommentare

    Bundesrat fordert zahlreiche Änderungen an Maas-Gesetz

  7. GVFS

    Windows-Team nutzt fast vollständig Git

  8. Netzneutralität

    Verbraucherschützer wollen Verbot von Stream On der Telekom

  9. Wahlprogramm

    SPD fordert Anzeigepflicht für "relevante Inhalte" im Netz

  10. Funkfrequenzen

    Bundesnetzagentur und Alibaba wollen Produkte sperren



Haben wir etwas übersehen?

E-Mail an news@golem.de


Anzeige
Quantencomputer: Nano-Kühlung für Qubits
Quantencomputer
Nano-Kühlung für Qubits
  1. IBM Q Mehr Qubits von IBM
  2. Quantencomputer Was sind diese Qubits?
  3. Verschlüsselung Kryptographie im Quantenzeitalter

XPS 13 (9365) im Test: Dells Convertible zeigt alte Stärken und neue Schwächen
XPS 13 (9365) im Test
Dells Convertible zeigt alte Stärken und neue Schwächen
  1. Schnittstelle Intel pflegt endlich Linux-Treiber für Thunderbolt
  2. Atom C2000 & Kaby Lake Updates beheben Defekt respektive fehlendes HDCP 2.2
  3. UP2718Q Dell verkauft HDR10-Monitor ab Mai 2017

Calliope Mini im Test: Neuland lernt programmieren
Calliope Mini im Test
Neuland lernt programmieren
  1. Arduino Cinque RISC-V-Prozessor und ESP32 auf einem Board vereint
  2. MKRFOX1200 Neues Arduino-Board erscheint mit kostenlosem Datentarif
  3. Creoqode 2048 Tragbare Spielekonsole zum Basteln erhältlich

  1. Re: Pay to Win?

    Ovaron | 10:17

  2. Re: Offenbar finden alle Git gut, aber

    Kleba | 10:14

  3. Re: Dann soll man doch bitte o2 free abschaffen

    Trollifutz | 10:12

  4. Re: Blöcke [...] die jeweils eine Leistung von 20...

    Ovaron | 10:11

  5. Re: 1400W... für welche Hardware?

    Braineh | 10:01


  1. 09:01

  2. 17:40

  3. 16:40

  4. 16:29

  5. 16:27

  6. 15:15

  7. 13:35

  8. 13:17


  1. Themen
  2. A
  3. B
  4. C
  5. D
  6. E
  7. F
  8. G
  9. H
  10. I
  11. J
  12. K
  13. L
  14. M
  15. N
  16. O
  17. P
  18. Q
  19. R
  20. S
  21. T
  22. U
  23. V
  24. W
  25. X
  26. Y
  27. Z
  28. #
 
    •  / 
    Zum Artikel