Nvidia H200 & GB200: Neue Blackwell- und Hopper-GPUs für HPC & KI
Nvidia hat auf der Supercomputing-2024-Konferenz in Atlanta neue KI-Beschleuniger(öffnet im neuen Fenster) für kleinere Rechenzentren und Server vorgestellt. Der Hersteller kündigte die Verfügbarkeit der H200-NVL-PCI-Express-GPU an, einem Refresh der Hopper-H100-Generation für den PCI-Express-Slot. Mit der 1,5-fachen Speichermenge und über 40 Prozent höherer Übertragungsrate soll die Performance für HPC-Aufgaben um 30 Prozent steigen, KI-Inferenz soll bis zu 70 Pozent schneller laufen.
Eine H200-PCI-Express-Grafikkarte ist mit einer GH200-GPU und 144 GByte HBM-3-Speicher bestückt, wovon 141 GByte nutzbar sind. Die Übertragungsgeschwindigkeit ist mit 4,8 TByte/s über 40 Prozent höher als bei einer Nvidia H100-PCI-Express, dort sind es 3,36 TByte/s. Die Leistungsaufnahme ist bis 600 Watt konfigurierbar.
Per NV-Link können zwei oder vier GPUs zu einem Verbund zusammengeschlossen werden, um mit größeren KI-Modellen arbeiten zu können. Die dafür benötigte NV-Link-Bridge ermöglicht eine Übertragungsrate von 900 GByte/s. Zertifizierte MGX-Server sollen bis zu acht GPUs, also zwei NV-Link-Verbände, unterstützen.
Hopper wird erneuert, Blackwell herunterskaliert
Während kleinere Server mit stärkeren Hopper-Grafikkarten bestückt werden können, wird die neuere Blackwell-Generation um kleinere Systeme erweitert (via Servethehome(öffnet im neuen Fenster) ). Vier Blackwell-GPUs werden mit zwei Grace-Prozessoren zu einem Nvidia GB200-NVL4-Superchip kombiniert. Bisher hat Nvidia sich auf größere Systeme wie GB200, NVL36 und NVL72 konzentriert, mit NVL4 werden nun einzelne Server unterstützt.
Dazu hat der Hersteller zwei GB200-Module auf einer Platine zusammengefasst, statt diese über die NVL72-Spine-Anschlüsse zu verbinden. Diese fehlen dem GB200-NVL4-Modul, ebenso wie das dazugehörige Netzwerkmodul.
Die maximale Leistungsaufnahme der Platine beträgt stolze 5.400 Watt, für die Kühlung dürften die Systemhersteller daher auf Wasserkühlung setzen. Die vier GPUs haben zusammen 786 GByte HBM3E-Speicher mit einer Übertragungsrate von 32 TByte/s. Für die Blackwell-GPUs sind weitere 960 GByte LPDDR5X vorhanden.
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.



