MWC 2026 Noch in diesem Jahr gibt es den Atlas 950 SuperPoD auch im Ausland. Huawei will den Weltmarkt für die KI-Computing-Einheiten nicht Nvidia überlassen.
Mit der Speicher-Krise kommen alte Ideen zurück. John Carmack hat beim Laufzeitspeicher aber eine Kleinigkeit übersehen, wie eine einfache Rechnung zeigt.
CES 2026 Die nächste Speicher-Generation für KI-Beschleuniger und Mobilgeräte steht vor dem Start. Auch tauschbarer LPDDR-Speicher ist immer öfter zu sehen.
Auch schwächere Rechengrafikkarten von Nvidia dürfen nicht mehr nach China. Das halte dort niemanden von eigener KI-Entwicklung ab, sagte Nvidia-Chef Jensen Huang.
Höhere Kapazität und geringere Herstellungskosten: Auch SK Hynix will bei DRAM in die dritte Dimension. Ein anderer 3D-Speicher treibt aktuell die Umsätze.
Beim DRAM für Arbeitsspeicher kommen die Hersteller an Kapazitätsgrenzen. Wie beim Flash ist der Ausweg die dritte Dimension, zuerst für die Transistoren.
AMDs Milan-X, Apples M1-Ultra und Stapelspeicher verschiedener Hersteller zeigen die Leistungsfähigkeit von TSMCs modernen Fertigungsverfahren. Auch andere Hersteller sollen künftig darauf zurückgreifen können.
Bisher waren 8 GByte das Limit, künftiger High Bandwidth Memory hingegen stapelt 16 GByte oder gleich 24 GByte in einem Stack. Solcher 3D-Speicher taktet überdies höher, was wichtig für Grafikkarten und Prozessoren ist.
Die Deep-Learning-Beschleuniger von Google lassen sich nun in einem offenen Betaprogramm der sogenannten Cloud-TPU testen. Für Machine-Learning-Aufgaben sollen aber weiter auch Skylake-CPUs und Nvidias GPUs bereitstehen.
Mit höherer Datenrate und geringerer Spannung: Samsungs neuer High Bandwidth Memory Gen2 (HBM2) für Grafikkarten oder Rechenbeschleuniger geht in die Serienfertigung. Er könnte auf AMDs 7-nm-Vega oder Nvidias Ampere eingesetzt werden.
CES 2018 Kaby Lake G ist ein Intel-Prozessor mit Vega-Grafikeinheit von AMD. Das kleine Package liefert viel Performance bei hoher Effizienz, denn bei gleicher Leistungsaufnahme sind Nvidia-Lösungen laut Intel langsamer. Wir sind skeptisch.
Die zweite Generation von Googles Deep-Learning-Beschleunigern TPU wird in Clustern zu je 64 Stück genutzt. Solch ein Cluster hat Zugriff auf 4 TByte HBM-Speicher. Einem einzelnen Kern aus Matrix- und Vektor-Recheneinheit steht je ein Speicher-Stapel aus 8 GByte zur Verfügung.
Um der Nachfrage von unter anderem AMD und Nvidia gerecht zu werden, erhöht Samsung den Ausstoß an HBM2-Speicher. Die Südkoreaner sind laut eigener Aussage die einzigen, die derzeit überhaupt 8-GByte-Stacks in Serie fertigen.
Hot Chips Seitenhiebe auf High Bandwidth Memory, ehrliche Worte zu 3D Xpoint plus Ausblick auf GDDR6 für Grafikkarten und LPDDR5 für Smartphones: Speicher soll schneller und effizienter werden.
Bis zu 384 GByte DDR4 und 72 Kerne plus 16 GByte On-Package-Speicher: Intels neue Xeon-Phi-Prozessoren vom Typ Knights Landing sind unter anderem für Deep Learning gedacht. Erstmals sind die Chips gesockelt und optional mit Fabric erhältlich.
Gedacht für Virtual Reality, aber davon abgesehen vor allem ziemlich flott: AMDs neue Radeon Pro Duo ist teuer und wassergekühlt, schlägt durch ihre zwei Fiji-Grafikchips aber selbst Nvidias Titan X.
Zwei Fiji-GPUs, 8 GByte Stapelspeicher und keine Displayausgänge: Die FirePro-Grafikkarte S9300 x2 ist die HPC-Variante der Radeon Pro Duo und liefert eine ernorme FP32-Leistung in Nischenanwendungen.
Sie ist AMDs zweitschnellste Grafikkarte und gerade einmal eine Handspanne lang: Die Radeon R9 Nano erweist sich als sehr flott und effizient. Die Zielgruppe für den teuren Winzling ist aber klein.
Extrem kurz, aber volle Geschwindigkeit: AMDs neue Nano-Radeon steht dem Topmodell Fury X bei der Leistung theoretisch kaum nach. In der Praxis dürfte die winzige Grafikkarte aber klar langsamer sein - folgerichtig zeigt AMD keine direkten Vergleichswerte.