Zum Hauptinhalt Zur Navigation

Nvidia H200 & GB200: Neue Blackwell- und Hopper-GPUs für HPC & KI

Nvidia erweitert das Sortiment für KI -Beschleuniger um neue GPUs für kleinere Server und Cloud -Provider. GB200 gibt es jetzt auch für einzelne Server.
/ Martin Böckmann
5 Kommentare News folgen (öffnet im neuen Fenster)
Der Nvidia-GB200-NVL4-Superchip kombiniert zwei Blackwell-Superchips auf einer Platine. (Bild: Nvidia)
Der Nvidia-GB200-NVL4-Superchip kombiniert zwei Blackwell-Superchips auf einer Platine. Bild: Nvidia

Nvidia hat auf der Supercomputing-2024-Konferenz in Atlanta neue KI-Beschleuniger(öffnet im neuen Fenster) für kleinere Rechenzentren und Server vorgestellt. Der Hersteller kündigte die Verfügbarkeit der H200-NVL-PCI-Express-GPU an, einem Refresh der Hopper-H100-Generation für den PCI-Express-Slot. Mit der 1,5-fachen Speichermenge und über 40 Prozent höherer Übertragungsrate soll die Performance für HPC-Aufgaben um 30 Prozent steigen, KI-Inferenz soll bis zu 70 Pozent schneller laufen.

Eine H200-PCI-Express-Grafikkarte ist mit einer GH200-GPU und 144 GByte HBM-3-Speicher bestückt, wovon 141 GByte nutzbar sind. Die Übertragungsgeschwindigkeit ist mit 4,8 TByte/s über 40 Prozent höher als bei einer Nvidia H100-PCI-Express, dort sind es 3,36 TByte/s. Die Leistungsaufnahme ist bis 600 Watt konfigurierbar.

Per NV-Link können zwei oder vier GPUs zu einem Verbund zusammengeschlossen werden, um mit größeren KI-Modellen arbeiten zu können. Die dafür benötigte NV-Link-Bridge ermöglicht eine Übertragungsrate von 900 GByte/s. Zertifizierte MGX-Server sollen bis zu acht GPUs, also zwei NV-Link-Verbände, unterstützen.

Hopper wird erneuert, Blackwell herunterskaliert

Während kleinere Server mit stärkeren Hopper-Grafikkarten bestückt werden können, wird die neuere Blackwell-Generation um kleinere Systeme erweitert (via Servethehome(öffnet im neuen Fenster) ). Vier Blackwell-GPUs werden mit zwei Grace-Prozessoren zu einem Nvidia GB200-NVL4-Superchip kombiniert. Bisher hat Nvidia sich auf größere Systeme wie GB200, NVL36 und NVL72 konzentriert, mit NVL4 werden nun einzelne Server unterstützt.

Dazu hat der Hersteller zwei GB200-Module auf einer Platine zusammengefasst, statt diese über die NVL72-Spine-Anschlüsse zu verbinden. Diese fehlen dem GB200-NVL4-Modul, ebenso wie das dazugehörige Netzwerkmodul.

Die maximale Leistungsaufnahme der Platine beträgt stolze 5.400 Watt, für die Kühlung dürften die Systemhersteller daher auf Wasserkühlung setzen. Die vier GPUs haben zusammen 786 GByte HBM3E-Speicher mit einer Übertragungsrate von 32 TByte/s. Für die Blackwell-GPUs sind weitere 960 GByte LPDDR5X vorhanden.


Relevante Themen