MLPerf Training: Google und Graphcore überholen Nvidia

Mit den TPU-v4- und den Colossus-Chips haben Nvidias A100 starke Konkurrenz beim Training von künstlicher Intelligenz erhalten.

Artikel veröffentlicht am ,
Ein IPU-Pod4 mit vier Colossus MK2 GC200
Ein IPU-Pod4 mit vier Colossus MK2 GC200 (Bild: Graphcore)

Die ersten Resultate der MLPerf-Training-v1.0-Suite sind da, diese bündelt mehrere Benchmarks für künstliche Intelligenz wie Bilderklassifizierung, Objekterkennung und Sprachverarbeitung. Unternehmen können die Resultate ihrer Server einreichen, was in einer umfangreichen Datenbank für sechs sehr verschiedene KI-Anwendungen resultiert.

Auch wenn bei den meisten Systemen die Nvidia A100 als Beschleuniger verwendet wird, gibt es Konkurrenz: Google schickt die TPUs v4 ins Rennen, von Graphcore stammen die Colossus MK2 GC200, von Huawei die Ascend 910 und von Intel die Habana Gaudi. Als Host-CPUs kommen entweder AMDs Epyc 7002/7003, Intels Xeon SP (Cascade/Cooper/Ice Lake) oder die ARM-basierten Kunpeng 920 zum Einsatz.

TPUv4 gewinnen vier von sechs Benchmarks

Google etwa sieht sich mit den TPU v4 (Tensor Processing Unit) deutlich vor Nvidia: Der Performance-Vorsprung liegt laut Hersteller bei 10 Prozent bis 74 Prozent, in zwei von sechs Benchmarks gewinnen die A100. Google hat ein TPU-v4-Pod mit 4.096 dieser ASICs verwendet, konnte aber nur 3.456 der Chips auslasten. Die Nvidia-Werte wurden auch mit bis zu 4.096 der A100 mit 80 GByte erstellt und stammen direkt von Jensens Team.

Ebenfalls spannend sind die Resultate von Graphcore, die für sich beanspruchen, Nvidia bei den Kosten zu schlagen. Der britische Hersteller vergleicht dabei das eigene IPU-Pod16 mit ebenso vielen Colossus-IPUs, die gegen ein deutlich teureres DXG A100 von Nvidia mit acht der Beschleuniger antreten. Zwar ist das Graphcore-System bei BERT und ResNet nicht schneller, der IPU-Pod16 soll aber das bessere Preis-Leistungs-Verhältnis (Listenanschaffungskosten des Systems) aufweisen und so punkten.

Von Lenovo kommen erste Werte mit acht Habana Gaudi, wie Intel sie anbietet. Das Training von Resnet dauert damit doppelt so lange wie mit acht Nvidia A100, wohingegen die 164 Minuten für BERT ein sehr schlechter Wert sind - eventuell ist hier die Software noch das Problem, da die Nvidia A100 gerade knapp 22 Minuten benötigen. Die Habana Gaudi werden unter anderem von AWS eingesetzt, die EC2-Instanzen sollen 40 Prozent mehr Performance pro US-Dollar erreichen als die mit den Nvidia A100.

Zu guter Letzt gibt es Resultate von Huaweis selbst entwickelten Ascend 910, die mit ebenfalls selbst entworfenen ARM-CPUs kombiniert wurden. 1.024 dieser KI-Beschleuniger schaffen bei ResNet in etwa die Geschwindigkeit von 1.024 Nvidia A100, bei BERT sind aber 128 davon ein bisschen langsamer als halb so viele Ampere-Beschleuniger.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Aktuell auf der Startseite von Golem.de
Ungewöhnlicher Kundenservice
Wie ich meine neuen Kopfhörer mit dem Hammer zerschlug

Normalerweise muss man sich in einem Garantiefall nicht dabei filmen, wie man das defekte Produkt zerstört. Ich schon - nur so bekam ich einen Ersatz für meinen Kopfhörer.
Ein Erfahrungsbericht von Tobias Költzsch

Ungewöhnlicher Kundenservice: Wie ich meine neuen Kopfhörer mit dem Hammer zerschlug
Artikel
  1. Deutschland auf Platz 3: Millionen von SSH-Servern anfällig für Terrapin-Angriff
    Deutschland auf Platz 3
    Millionen von SSH-Servern anfällig für Terrapin-Angriff

    Allein in Deutschland gibt es mehr als eine Million über das Internet erreichbare SSH-Server, die nicht gegen Terrapin gepatcht sind.

  2. Festnetz- und Mobilfunk: Telefónica beginnt Massenentlassungen in Spanien
    Festnetz- und Mobilfunk
    Telefónica beginnt Massenentlassungen in Spanien

    Von 16.500 Arbeitsplätzen beim Telefónica-Mutterkonzern soll rund ein Fünftel verschwinden. Der Stellenabbau betrifft vor allem Ältere.

  3. Streamer: Twitch verbietet vorgetäuschte Nacktheit
    Streamer
    Twitch verbietet vorgetäuschte Nacktheit

    Schwarze Balken über der scheinbar nackten Brust? Nicht erlaubt! Selbst wenn Unterwäsche hervorblitzt, verbietet Twitch solche Darstellungen.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Crucial P3 Plus 4 TB + Acronis 194,83€ • MediaMarkt & Saturn: Gutscheinheft mit Rabattaktionen und 3 Games für 49€ • Alternate: Thermaltake-Produkte im Angebot • HP Victus 15.6" 144Hz (i5-13420H, 16 GB, RTX 3050) 777€ • MindStar: Corsair Vengeance RGB 64 GB DDR5-6000 199€ [Werbung]
    •  /