Zum Hauptinhalt Zur Navigation

MGX-Gehäuse: Nvidia stellt modulare Serverplattform vor

Computex 2023
Die Zeiten, in denen Servergehäuse um CPUs und deren Mainboards herum erstellt werden, sind bei Nvidia wohl vorbei.
/ Sebastian Grüner
3 Kommentare News folgen (öffnet im neuen Fenster)
Nvidia will seine Beschleuniger leichter in Server integrieren und bietet dafür die MGX-Plattform an. (Bild: via REUTERS)
Nvidia will seine Beschleuniger leichter in Server integrieren und bietet dafür die MGX-Plattform an. Bild: via REUTERS

GPU-Hersteller Nvidia hat auf der Computex in Taiwan ein neues Server- und Gehäusedesign vorgestellt(öffnet im neuen Fenster) , das "die vielfältigen Anforderungen der Rechenzentren der Welt an Beschleuniger erfüllen" sollen. Hauptaugenmerk des Herstellers liegt dabei natürlich auf den eigenen GPUs, DPUs und Smart-NICs.

Die Hauptidee der MGX-Plattform(öffnet im neuen Fenster) ist dabei einerseits, die Systeme in Rechenzentren nicht mehr auf Grundlage von Standardhardware wie CPUs und handelsüblichen Mainboards aufzubauen und die Beschleuniger dann erst nachträglich hinzuzufügen. Andererseits sollen aber auch nicht hochspezialisierte Eigenanfertigungen zur effektiven Integration der Beschleuniger notwendig sein.

Die Notwendigkeit für neue Gehäuse und Serverdesigns ergebe sich dabei vor allem deshalb, weil aktuelle Designs nicht für die Leistungsaufnahme und Wärmeabgabe moderner Beschleuniger erstellt worden sind, wie Nvidia-CEO Jensen Huang auf der Computex(öffnet im neuen Fenster) sagte.

Bei MGX handelt es sich laut Nvidia um eine Spezifikation, "die Systemherstellern eine modulare Referenzarchitektur zur Verfügung stellt, mit der sie schnell und kostengünstig mehr als 100 Servervarianten für eine breite Palette von KI-, Hochleistungsrechner- und Omniverse-Anwendungen entwickeln können."

Zu den genannten Partnern gehören die Hersteller ASRock Rack, Asus, Gigabyte, Pegatron, QCT und Supermicro. Von den beiden letztgenannten Unternehmen sollen schon im August konkrete Designs erhältlich sein. In Größen von 1, 2 oder 4 Höheneinheiten sollen die Server GPUs aus dem gesamten Produktportfolio von Nvidia beherbergen können. Hinzu kommen aber auch die Grace CPU , Grace-Hopper-Chips oder handelsübliche x86- und ARM-CPUs sowie Netzwerkanbindungen.


Relevante Themen