Abo
  • IT-Karriere:

Deep Learning: Googles Cloud-TPU kosten 6,50 US-Dollar pro Stunde

Die Deep-Learning-Beschleuniger von Google lassen sich nun in einem offenen Betaprogramm der sogenannten Cloud-TPU testen. Für Machine-Learning-Aufgaben sollen aber weiter auch Skylake-CPUs und Nvidias GPUs bereitstehen.

Artikel veröffentlicht am ,
Die Cloud-TPU lassen sich jetzt auch offiziell von allen nutzen.
Die Cloud-TPU lassen sich jetzt auch offiziell von allen nutzen. (Bild: Google)

Mit den Cloud-TPU hat Google auf seiner Entwicklerkonferenz I/O im vergangenen Frühjahr die zweite Generation seiner Tensor Processing Units (TPU) genannten Deep-Learning-Beschleuniger vorgestellt. Nach einer anmeldepflichtigen Alpha-Testphase sowie einem speziell an Forscher gerichteten Angebot startet Google nun eine offene Beta für die Verwendung der Cloud-TPU.

Stellenmarkt
  1. ORBIT Gesellschaft für Applikations- und Informationssysteme mbH, Bonn
  2. Etribes Connect GmbH, Hamburg

Die Rechenleistung zu mieten, soll 6,50 US-Dollar pro Stunde und Cloud-TPU kosten. Die vergleichsweise große Nachfrage nach den TPU bei nach wie vor knappen Hardware-Ressourcen versucht Google durch eine Anmeldung für die Beta-Phase zu lösen. Google verspricht aber seinen Kunden, so schnell wie möglich Zugriff auf die Cloud-TPU geben zu wollen.

Diese nun verfügbare zweite Generation kann nicht nur das Inferencing beschleunigen, also das Anwenden bereits trainierter Modelle, sondern unterstützt auch explizit das Training völlig neuer Modelle. Damit Kunden das möglichst einfach umsetzen können, lassen sich die Cloud-TPU mit dem von Google unterstützten Framework Tensorflow verwenden. Für einen einfachen Start hat Google auch Referenzmodelle für diesen Aufbau als Open-Source-Software veröffentlicht.

Rechenstarke Hardware in der Cloud

Eine einzelne Recheneinheit der zweiten Generation der TPU besteht aus zwei Kernen. In jedem Kern stecken wiederum eine Einheit für Skalar- und Vektor-Operationen, die 32 Bit Fließkommazahlen verarbeiten kann, und eine Einheit zur Matrix-Multiplikation der Größe 128 x 128. Letztere arbeitet ebenfalls mit 32 Bit Fließkommazahlen. Für die Multiplikatoren kann jedoch auch mit reduzierter Genauigkeit gearbeitet werden, was besonders für Training von Deep-Learning-Modellen von Vorteil ist.

  • Die zweite Generation der TPU von oben ... (Bild: Google)
  • ... und von der Seite. (Bild: Google)
  • Die neuen TPUs stapelt Google in seinen Rechenzentren zu Servern. (Bild: Google)
Die zweite Generation der TPU von oben ... (Bild: Google)

Jeder der Kerne kann auf 8 GByte HBM-Speicher zugreifen. Ob es sich hier um einen 8 GByte-Chip und mehrere kleine handelt, ist nicht bekannt. Die gesamte Speicherbandbreite eines einzelnen TPU-Chips beträgt zudem 600 GByte/s. Eine einzelne Einheit komme so laut Google auf eine Rechenleistung von 45 Teraflops. Von diesen Chips werden je vier auf einem Board angebracht, das Google dann TPU v2 nennt und entsprechend eine Leistung von 180 Teraflops haben soll.

Diese Boards werden von Google selbst nach Angaben des Unternehmens zu einem Cluster aus 64 Stück zusammengefasst, was das Unternehmen als Pod bezeichnet. Solch ein Pod hat dann eine theoretische Rechenleistung von 11,5 Petaflops und Zugriff auf insgesamt 4 TByte HBM-Speicher. Noch lassen sich diese TPU-Pods jedoch nicht dediziert mieten. Die TPU-Pods sollen später im Jahr im Cloud-Angebot von Google zur Verfügung stehen.

Zusätzlich zu den TPU sollen Googles Kunden, die auf Machine Learning setzen, aber auch weiterhin Zugriff auf verschiedene leistungsstarke CPUs wie die aktuelle Skylake-Generation erhalten sowie auch auf die sogenannten Cloud-GPUs, über die auch Nvidias Tesla V100 bereitsteht.



Anzeige
Spiele-Angebote
  1. (-78%) 7,77€
  2. 14,95€
  3. 2,40€
  4. 7,99€

the_hell 13. Feb 2018

1000Boards? Einfacher zu rechnen: Du mußt 10 Pods mieten um die weltweite Nummer eins zu...

Anonymer Nutzer 12. Feb 2018

Bin kein Experte, Ich glaube aber das die Dinger bei Ethereum nicht wirklich...


Folgen Sie uns
       


Openbook erklärt (englisch)

Openbook ist ein neues soziales Netzwerk, das sich durch Crowdfunding finanziert hat. Golem.de hat sich mit dem Gründer Joel Hernández über das Projekt unterhalten.

Openbook erklärt (englisch) Video aufrufen
Sicherheitslücken: Zombieload in Intel-Prozessoren
Sicherheitslücken
Zombieload in Intel-Prozessoren

Forscher haben weitere Seitenkanalangriffe auf Intel-Prozessoren entdeckt, die sie Microarchitectural Data Sampling alias Zombieload nennen. Der Hersteller wusste davon und reagiert mit CPU-Revisionen. Apple rät dazu, Hyperthreading abzuschalten - was 40 Prozent Performance kosten kann.
Ein Bericht von Marc Sauter und Sebastian Grüner

  1. Open-Source Technology Summit Intel will moderne Firmware und Rust-VMM für Server
  2. Ice Lake plus Xe-GPGPU Intel erläutert 10-nm- und 7-nm-Zukunft
  3. GPU-Architektur Intels Xe beschleunigt Raytracing in Hardware

Oneplus 7 Pro im Hands on: Neue Konkurrenz für die Smartphone-Oberklasse
Oneplus 7 Pro im Hands on
Neue Konkurrenz für die Smartphone-Oberklasse

Parallel zum Oneplus 7 hat das chinesische Unternehmen Oneplus auch das besser ausgestattete Oneplus 7 Pro vorgestellt. Das Smartphone ist mit seiner Kamera mit drei Objektiven für alle Fotosituationen gewappnet und hat eine ausfahrbare Frontkamera - das hat aber seinen Preis.
Ein Hands on von Ingo Pakalski

  1. Oneplus 7 Der Nachfolger des Oneplus 6t kostet 560 Euro
  2. Android 9 Oneplus startet Pie-Beta für Oneplus 3 und 3T
  3. MWC 2019 Oneplus will Prototyp eines 5G-Smartphones zeigen

Bethesda: Ich habe TES Blades für 5,50 Euro durchgespielt
Bethesda
Ich habe TES Blades für 5,50 Euro durchgespielt

Rund sechs Wochen lang hatte ich täglich viele spaßige und auch einige frustrierende Erlebnisse in Tamriel: Mittlerweile habe ich den Hexenkönig in TES Blades besiegt - ohne dafür teuer bezahlen zu müssen.
Ein Bericht von Marc Sauter

  1. Bethesda TES Blades ist für alle verfügbar
  2. TES Blades im Test Tolles Tamriel trollt
  3. Bethesda TES Blades startet in den Early Access

    •  /