MWC 2026 Noch in diesem Jahr gibt es den Atlas 950 SuperPoD auch im Ausland. Huawei will den Weltmarkt für die KI-Computing-Einheiten nicht Nvidia überlassen.
Mit der Speicher-Krise kommen alte Ideen zurück. John Carmack hat beim Laufzeitspeicher aber eine Kleinigkeit übersehen, wie eine einfache Rechnung zeigt.
CES 2026 Die nächste Speicher-Generation für KI-Beschleuniger und Mobilgeräte steht vor dem Start. Auch tauschbarer LPDDR-Speicher ist immer öfter zu sehen.
Auch schwächere Rechengrafikkarten von Nvidia dürfen nicht mehr nach China. Das halte dort niemanden von eigener KI-Entwicklung ab, sagte Nvidia-Chef Jensen Huang.
Höhere Kapazität und geringere Herstellungskosten: Auch SK Hynix will bei DRAM in die dritte Dimension. Ein anderer 3D-Speicher treibt aktuell die Umsätze.
Beim DRAM für Arbeitsspeicher kommen die Hersteller an Kapazitätsgrenzen. Wie beim Flash ist der Ausweg die dritte Dimension, zuerst für die Transistoren.
AMDs Milan-X, Apples M1-Ultra und Stapelspeicher verschiedener Hersteller zeigen die Leistungsfähigkeit von TSMCs modernen Fertigungsverfahren. Auch andere Hersteller sollen künftig darauf zurückgreifen können.
Bisher waren 8 GByte das Limit, künftiger High Bandwidth Memory hingegen stapelt 16 GByte oder gleich 24 GByte in einem Stack. Solcher 3D-Speicher taktet überdies höher, was wichtig für Grafikkarten und Prozessoren ist.
Die Deep-Learning-Beschleuniger von Google lassen sich nun in einem offenen Betaprogramm der sogenannten Cloud-TPU testen. Für Machine-Learning-Aufgaben sollen aber weiter auch Skylake-CPUs und Nvidias GPUs bereitstehen.
Mit höherer Datenrate und geringerer Spannung: Samsungs neuer High Bandwidth Memory Gen2 (HBM2) für Grafikkarten oder Rechenbeschleuniger geht in die Serienfertigung. Er könnte auf AMDs 7-nm-Vega oder Nvidias Ampere eingesetzt werden.
CES 2018 Kaby Lake G ist ein Intel-Prozessor mit Vega-Grafikeinheit von AMD. Das kleine Package liefert viel Performance bei hoher Effizienz, denn bei gleicher Leistungsaufnahme sind Nvidia-Lösungen laut Intel langsamer. Wir sind skeptisch.
Die zweite Generation von Googles Deep-Learning-Beschleunigern TPU wird in Clustern zu je 64 Stück genutzt. Solch ein Cluster hat Zugriff auf 4 TByte HBM-Speicher. Einem einzelnen Kern aus Matrix- und Vektor-Recheneinheit steht je ein Speicher-Stapel aus 8 GByte zur Verfügung.
Um der Nachfrage von unter anderem AMD und Nvidia gerecht zu werden, erhöht Samsung den Ausstoß an HBM2-Speicher. Die Südkoreaner sind laut eigener Aussage die einzigen, die derzeit überhaupt 8-GByte-Stacks in Serie fertigen.
Hot Chips Seitenhiebe auf High Bandwidth Memory, ehrliche Worte zu 3D Xpoint plus Ausblick auf GDDR6 für Grafikkarten und LPDDR5 für Smartphones: Speicher soll schneller und effizienter werden.
Bis zu 384 GByte DDR4 und 72 Kerne plus 16 GByte On-Package-Speicher: Intels neue Xeon-Phi-Prozessoren vom Typ Knights Landing sind unter anderem für Deep Learning gedacht. Erstmals sind die Chips gesockelt und optional mit Fabric erhältlich.