Zum Hauptinhalt Zur Navigation

DGX Spark: Nvidia bringt KI-Modelle vom Rechenzentrum auf den Desktop

CES 2026
Nvidia bringt mit DGX Spark und der neuen DGX Station große KI-Modelle direkt an den Schreibtisch und beschleunigt zugleich kreative Workflows.
/ Peter Steinlechner
Kommentare News folgen (öffnet im neuen Fenster)
Artwork von DGX Spark (Bild: Justin Sullivan/Getty Images)
Artwork von DGX Spark Bild: Justin Sullivan/Getty Images

Nvidia zeigt auf der CES 2026, wie sich immer größere KI-Modelle am Schreibtisch statt nur in der Cloud ausführen lassen. Neben dem schon länger erhältlichen KI-Rechner DGX Spark(öffnet im neuen Fenster) stellt das Unternehmen die neue DGX Station vor, die als lokal betriebener Mini-Supercomputer konzipiert ist.

Spark soll Modelle mit bis zu rund 100 Milliarden Parametern bewältigen, während die DGX Station laut Nvidia sogar KI-Systeme mit bis zu einer Billion Parametern lokal ausführen kann.

Die Systeme basieren auf der Grace-Blackwell-Architektur, kombinieren großen, einheitlichen Speicher mit Rechenleistung im Petaflop-Bereich und lassen sich bei Bedarf in Cloud-Umgebungen weiter skalieren.

Ein Kern der Strategie sind Software-Optimierungen und die enge Zusammenarbeit mit der Open-Source-Community. Das Datenformat NVFP4 komprimiert Modelle laut Nvidia um bis zu 70 Prozent und soll die Qualität weitgehend erhalten.

Dadurch passen größere Modelle in den Speicher und laufen schneller, beim Feintuning ebenso wie in der Inferenz. Ergänzend nennt Nvidia Leistungsgewinne durch Projekte wie llama.cpp, die im Schnitt rund 35 Prozent mehr Tempo bringen und zudem kürzere Ladezeiten ermöglichen.

DGX Station für größere Projekte

DGX Spark wird mit vorinstallierten Cuda-X-Bibliotheken und Playbooks ausgeliefert, die typische Workflows abdecken – von Inferenz über Feintuning bis hin zu Datenanalyse. Spark richtet sich an Entwickler, Forscher und Start-ups, die moderne Open-Source-Modelle lokal betreiben wollen.

Die DGX Station zielt auf Labs und Unternehmen, die mit besonders großen Frontier-Modellen experimentieren und dafür eine reproduzierbare Umgebung vor Ort benötigen. In Demos zeigte Nvidia auf der Messe unter anderem LLM-Pretraining mit bis zu 250.000 Tokens pro Sekunde sowie KI-gestützte Datenvisualisierungen.

Auch kreative Workflows rücken in den Mittelpunkt. Bild- und Videomodelle wie Flux oder Qwen-Image unterstützen NVFP4, benötigen dadurch weniger Speicher und arbeiten schneller.

DGX Spark kann rechenintensive Schritte vom Notebook auslagern und laut Nvidia bis zu achtmal schneller rendern als ein aktuelles Macbook Pro, während der lokale Rechner weiter genutzt werden kann.

Für die Modding-Szene soll das Open-Source-Projekt RTX Remix künftig ermöglichen, die Erzeugung von Texturen und Assets komplett an Spark auszulagern und Änderungen nahezu in Echtzeit im Spiel zu prüfen.

Zudem demonstrierte Nvidia einen lokal laufenden Cuda-Coding-Assistenten auf Basis von Nsight. Entwickler sollen damit KI-Unterstützung verwenden können, ohne Quellcode in externe Clouddienste hochzuladen.

Parallel führt Nvidia AI Enterprise als offiziell unterstützte Softwarebasis für DGX Spark und GB10-Systeme von Partnern ein – inklusive Bibliotheken, Frameworks, Treibern, Microservices und Support. Lizenzen sollen bis Ende Januar 2026 verfügbar sein.

DGX Spark ist bereits bei mehreren Anbietern erhältlich, die DGX Station soll im Frühjahr 2026 folgen. Preise sind noch nicht bekannt – und werden dann vermutlich nicht von Nvidia, sondern von den Systempartnern kommuniziert.


Relevante Themen