Zum Hauptinhalt Zur Navigation

DGX Station mit Blackwell Ultra: "So sollte ein PC aussehen"

GTC 2025
Nvidia sieht KI an jedem Arbeitsplatz – und stellt dafür ein Mainboard mit Blackwell-Ultra- GPU vor. Das kommt mit 20 PFlops KI-Leistung und immens viel RAM.
/ Johannes Hiltscher
5 Kommentare News folgen (öffnet im neuen Fenster)
Nvidia-CEO Jensen Huang zeigt das Mainboard der DGX Station: Darauf finden zwei große Chip-Packages und viel Speicher Platz. (Bild: Nvidia; Screenshot: Golem.de)
Nvidia-CEO Jensen Huang zeigt das Mainboard der DGX Station: Darauf finden zwei große Chip-Packages und viel Speicher Platz. Bild: Nvidia; Screenshot: Golem.de

Auf der aktuell vom 18. bis 21. März 2025 stattfindenden GPU Technology Conference (GTC) hat Nvidia-CEO Jensen Huang nicht nur einen Ausblick auf die GPU-Roadmap für Rechenzentren gegeben, mit der DGX Station bringt das Unternehmen die neue Blackwell-Ultra-GPU auch in einen Desktop-Formfaktor(öffnet im neuen Fenster) . Auf dem EATX-Mainboard sitzt neben der GPU und einer Grace-CPU -zusammen der GB300 Super Chip – auch ein ConnectX-8-Chip für Infiniband mit 800 GBit/s.

Das System kommt auf 20 PFlops FP4-Leistung (4-Bit-Gleitkommazahlen), allerdings nur bei dünnbesetzten Matrizen. Ohne Sparsity (g+) sind es immer noch 15 PFlops. Im 784 GByte großen Unified Memory finden auch große Modelle Platz. Der teilt sich auf in die 288 GByte HBM3e der Blackwell Ultra und 496 GByte LPDDR5X, verteilt auf 16 Module. Hier scheinen 16 GByte für Betriebssystem und Software-Stack abgezogen zu sein, so dass die 784 GByte vollständig für Modellgewichte nutzbar sein dürften. Die Speicherbandbreite liegt bei 8 TByte/s (HBM3e) und 396 GByte/s (LPDDR5x).

Damit stellt die DGX Station das auf der CES 2025 gezeigte Project Digits , das nun offiziell DGX Spark heißt, deutlich in den Schatten. Den Bedarf für ein größeres System sieht Nvidia nicht nur bei KI-Entwicklern und Forschern – Blackwell Ultra eignet sich mit 100 TFlops FP64-Leistung auch als Rechenbeschleuniger -, sondern auch bei Ingenieuren und Software-Entwicklern.

KI überall

Denn das Unternehmen will KI in so ziemlich jede Anwendung bringen. Und dafür brauche man dann eben ausreichend leistungsfähige PCs, so CEO Huang. In seiner Keynote(öffnet im neuen Fenster) kommentierte er das gezeigte Mainboard mit den Worten "So sollte ein PC aussehen" .

Neben den Kernkomponenten verfüge das Mainboard noch über drei PCIe-x16-Slots – falls man noch eine Geforce nachrüsten wolle, so Huang. Zu erkennen waren außerdem drei NVMe-Slots für SSDs. Zur Leistungsaufnahme finden sich bislang keine Angaben, ebenso wenig zum Preis. Sicher ist aber: Beides dürfte hoch sein. Verkauft werden dürfte das Mainboard in Komplettsystemen.

Neben Computern in verschiedensten Größen will Nvidia seine KI-Chips auch in Storage-Systeme integrieren. Huang sagte, Ziel sei es, dem Speichersystem eine Frage zu stellen, so dass dieses aus den gespeicherten Daten, über die es kontinuierlich lerne, relevante Information herauszusuchen. Hieran arbeite man mit Partnern wie Dell, HPE und IBM.


Relevante Themen