Compute Engine A2: Google packt Nvidias A100 in die Cloud

Die A2-Compute-Engine kombinieren Ampere-Beschleuniger mit Intel-CPUs.

Artikel veröffentlicht am ,
Logo der Cloud Compute Engine
Logo der Cloud Compute Engine (Bild: Google)

Google hat als erster Cloud-Anbieter mehrere Instanzen veröffentlicht, die Nvidias A100-Beschleuniger nutzen. Die Compute Engine A2 basiert auf Systemen von Nvidia, die Google mit Intel-Prozessoren kombiniert. Vorerst sind die Instanzen nur per privatem Alpha-Programm verfügbar, sie eignen sich für maschinelles Lernen - also Training sowie Inferencing - und für High Performance Computing (HPC).

Stellenmarkt
  1. (Junior) Data Warehouse & BI Berater:in
    viadee Unternehmensberatung AG, Münster, Köln oder Dortmund
  2. SAP ERP Consultant (w/m/d)
    HUK-COBURG Versicherungsgruppe, Coburg
Detailsuche

Technische Basis der Compute Engine A2 sind die HGX-100-Plattformen von Nvidia im Vollausbau. Diese kombinieren zwei per Switch verbundene Platinen mit je acht A100-Beschleunigern in SMX4-Bausweise. Folgerichtig bietet Google die Instanzen bis zu hin einer als A2-MegaGPU-16g bezeichneten Version an. Neben den Nvidia-Modulen gibt es bis zu 96 vCPUs - genauer Cascade Lake von Intel - und bis zu 1,36 TByte Arbeitsspeicher. Die kleinste Version namens A2-HighGPU-1g nutzt einen A100-Beschleuniger mit zwölf vCPUs und 85 GByte RAM.

Die A100, die nicht mehr zusätzlich Tesla heißen, sind Nvidias aktuelle Beschleuniger für Server. Sie basieren auf dem GA100-Grafikchip mit Ampere-Architektur und wurden im Mai 2020 vorgestellt. Bei vorherigen Generationen dauerte es teils sehr viel länger bis Google oder ein anderer Anbieter die jeweiligen Beschleuniger in der eigenen Cloud verbaute und anbot - zwei Jahre bei Kepler, ein Jahr bei Pascal sowie fünf Monate bei Volta.

  • Cloud Compute Engine A2 (Bild: Google)
  • Cloud Compute Engine A2 (Bild: Google)
Cloud Compute Engine A2 (Bild: Google)
Tesla V100 (SXM2)Nvidia A100 (SXM4)Nvidia A100 (PCIe)
GPU (µArch)GV100 (Volta), teilaktiviertGA100 (Ampere), teilaktiviertGA100 (Ampere), teilaktiviert
Node12FFN (TSMC)7N (TSMC)7N (TSMC)
Transistoren21,1 Milliarden54,2 Milliarden54,2 Milliarden
ALUs / Tensor5.120 / 6406.912 / 4326.912 / 432
Speicher32 GByte HBM240 GByte HBM2 / 80 GByte HBM2e40 GByte HBM2
Bandbreite900 GByte/s1,555 TByte/s bzw über 2 TByte/s1,555 TByte/s
FP647,45 Teraflops9,7 (19,5*) Teraflops9,7 (19,5*) Teraflops
FP3214,9 Teraflops19,5 Teraflops19,5 Teraflops
FP16125 Teraflops312 (624**) Teraflops312 (624**) Teraflops
INT862 Teraops624 (1.248**) Teraops624 (1.248**) Teraops
TDP300 Watt400 Watt250 Watt
NV-Link300 GByte/s (8x GPUs)600 GByte/s (8x GPUs)600 GByte/s (2x GPUs)
InterfacePCIe Gen3PCIe Gen4PCIe Gen4
Technische Daten von Nvidias Tesla V100 und A100 *viaTensor Cores **mit Sparsity

Beim GA100 hat sich Nvidia vor allem auf die für maschinelles Lernen wichtige Leistung konzentriert und die Tensor-Cores drastisch verbessert. Der mit 826 mm² riesige 7-nm-Chip erreicht dadurch eine sehr hohe Leistung bei INT8- und FP16-Berechnungen, zudem können die A100-Beschleuniger dank 48 GByte HBM2-Stapelspeicher viele Daten lokal vorhalten und schnell einladen. Neben dem Modell mit SMX4-Mezzanine-Modul hat Nvidia auch eine PCIe-Gen4-Steckkarte mit GA100 vorgestellt.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Aktuell auf der Startseite von Golem.de
Streaming
Amazon zeigt neuen Fire TV Cube

Das neue Spitzenmodell der Fire-TV-Produktfamilie wurde beschleunigt und hat deutlich mehr Anschlüsse als bisher. Zudem wird eine neue Fire-TV-Fernbedienung angeboten.

Streaming: Amazon zeigt neuen Fire TV Cube
Artikel
  1. Berufsschule für die IT-Branche: Leider nicht mal ausreichend
    Berufsschule für die IT-Branche
    Leider nicht mal "ausreichend"

    Lehrmaterial wie aus einem Schüleralbtraum, ein veralteter Rahmenlehrplan und nette Lehrer, denen aber die Praxis fehlt - mein Fazit aus drei Jahren als Berufsschullehrer.
    Ein Erfahrungsbericht von Rene Koch

  2. Tim Cook: Apple will Entwicklung in München weiter ausbauen
    Tim Cook
    Apple will Entwicklung in München weiter ausbauen

    Laut Konzernchef Cook ist der Standort München wegen der Mobilfunktechnik für Apple "sehr, sehr wichtig". Doch da ist noch mehr.

  3. Smarte Lautsprecher: Amazons neue Echo-Lautsprecher haben Sensoren
    Smarte Lautsprecher
    Amazons neue Echo-Lautsprecher haben Sensoren

    Amazon hat zwei neue Echo-Dot-Modelle vorgestellt. Außerdem erhält der Echo Studio Klangverbesserungen und Amazon macht den Echo Show 15 zum Fire TV.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • PS5-Controller GoW Ragnarök Edition vorbestellbar • Saturn Technik-Booster • Viewsonic Curved 27" FHD 240 Hz günstig wie nie: 179,90€ • MindStar (Gigabyte RTX 3060 Ti 499€, ASRock RX 6800 579€) • AMD Ryzen 7000 jetzt bestellbar • Alternate (KF DDR5-5600 16GB 96,90€) [Werbung]
    •  /