DGX Station mit Blackwell Ultra: "So sollte ein PC aussehen"

Auf der aktuell vom 18. bis 21. März 2025 stattfindenden GPU Technology Conference (GTC) hat Nvidia-CEO Jensen Huang nicht nur einen Ausblick auf die GPU-Roadmap für Rechenzentren gegeben, mit der DGX Station bringt das Unternehmen die neue Blackwell-Ultra-GPU auch in einen Desktop-Formfaktor(öffnet im neuen Fenster) . Auf dem EATX-Mainboard sitzt neben der GPU und einer Grace-CPU -zusammen der GB300 Super Chip – auch ein ConnectX-8-Chip für Infiniband mit 800 GBit/s.
Das System kommt auf 20 PFlops FP4-Leistung (4-Bit-Gleitkommazahlen), allerdings nur bei dünnbesetzten Matrizen. Ohne Sparsity (g+) sind es immer noch 15 PFlops. Im 784 GByte großen Unified Memory finden auch große Modelle Platz. Der teilt sich auf in die 288 GByte HBM3e der Blackwell Ultra und 496 GByte LPDDR5X, verteilt auf 16 Module. Hier scheinen 16 GByte für Betriebssystem und Software-Stack abgezogen zu sein, so dass die 784 GByte vollständig für Modellgewichte nutzbar sein dürften. Die Speicherbandbreite liegt bei 8 TByte/s (HBM3e) und 396 GByte/s (LPDDR5x).
Damit stellt die DGX Station das auf der CES 2025 gezeigte Project Digits , das nun offiziell DGX Spark heißt, deutlich in den Schatten. Den Bedarf für ein größeres System sieht Nvidia nicht nur bei KI-Entwicklern und Forschern – Blackwell Ultra eignet sich mit 100 TFlops FP64-Leistung auch als Rechenbeschleuniger -, sondern auch bei Ingenieuren und Software-Entwicklern.
KI überall
Denn das Unternehmen will KI in so ziemlich jede Anwendung bringen. Und dafür brauche man dann eben ausreichend leistungsfähige PCs, so CEO Huang. In seiner Keynote(öffnet im neuen Fenster) kommentierte er das gezeigte Mainboard mit den Worten "So sollte ein PC aussehen" .




Neben den Kernkomponenten verfüge das Mainboard noch über drei PCIe-x16-Slots – falls man noch eine Geforce nachrüsten wolle, so Huang. Zu erkennen waren außerdem drei NVMe-Slots für SSDs. Zur Leistungsaufnahme finden sich bislang keine Angaben, ebenso wenig zum Preis. Sicher ist aber: Beides dürfte hoch sein. Verkauft werden dürfte das Mainboard in Komplettsystemen.
Neben Computern in verschiedensten Größen will Nvidia seine KI-Chips auch in Storage-Systeme integrieren. Huang sagte, Ziel sei es, dem Speichersystem eine Frage zu stellen, so dass dieses aus den gespeicherten Daten, über die es kontinuierlich lerne, relevante Information herauszusuchen. Hieran arbeite man mit Partnern wie Dell, HPE und IBM.



