Für KI-Hardware: Samsung zeigt HBM4e und verrät Details zu HBM5 und HBM5e
Ohne schnellen Speicher ist viel KI-Hardware undenkbar. Als Marktführer kauft Nvidia High Bandwidth Memory (HBM), der auf den Rechenzentrums-GPUs verbaut wird, von allen drei großen Herstellern. Entsprechend sind diese auch alle bei Nvidias Hausmesse GTC vertreten und zeigen ihre Produkte. Neuigkeiten gibt es dabei von Samsung und Micron.
Während Nvidias kommende GPU-Generation Rubin auf HBM4 setzt , zeigt Samsung(öffnet im neuen Fenster) erstmals Wafer mit Speicher-Dies für die Nachfolgegeneration. HBM4e soll die Datenrate um fast 40 Prozent auf 16 GBit/s/Pin steigern. Die Speicher-Dies fertigt Samsung weiter mit der sechsten Generation der 10-nm-Fertigung (1c oder 1γ), die auch bereits bei HBM4 genutzt wird.
Eine Änderung gibt es allerdings beim Packaging: Während der Speicherstapel bislang mittels Thermokompressions-Bonding(öffnet im neuen Fenster) zusammengefügt wird, erfolgt dies künftig mittels Hybrid Copper Bonding(öffnet im neuen Fenster) . Dabei werden Wafer mit Speicher-Dies direkt aufeinandergefügt, die Moleküle der Isolationsschicht sowie die Kupferkontaktflächen verbinden sich durch Erhitzen mit dem jeweiligen Gegenüber.
HBM5 mit neuem Base-Die, HBM5e mit neuer Speicherfertigung
Samsung nennt als Vorteil eine bessere Wärmeabfuhr durch den vollflächigen Kontakt der Dies. Zusätzlich sind mit Hybrid Copper Bonding höhere Kontaktdichten möglich. HBM4e soll 2027 bei Rubin Ultra verbaut werden.
Wie die Wirtschaftszeitung Business Korea berichtet(öffnet im neuen Fenster) , verriet der Leiter von Samsungs Speichersparte, Hwang Sang-joon, bereits erste Details zur HBM5-Generation. Die Base-Dies für HBM5-Stacks sollen in einem 2-nm-Prozess gefertigt werden, bei HBM4 stammen sie noch aus einem 4-nm-Prozess. Bei den Speicher-Dies ist ein Wechsel der Fertigungstechnologie erst mit HBM5e geplant, hierfür soll dann der noch in Entwicklung befindliche 1d-Prozess genutzt werden.
Auch Micron liefert HBM4 aus Serienfertigung
Während die Konkurrenz bereits HBM4e zeigt, gibt Micron den Start der Serienfertigung von HBM4-Stacks(öffnet im neuen Fenster) bekannt. Deren Auslieferung habe im ersten Quartal 2026 begonnen. Microns HBM4 kommt auf eine Bandbreite von 11 GBit/s/Pin und liegt damit hinter Samsung zurück, dessen HBM4 bis zu 11,7 GBit/s/Pin erreicht. Vorerst bietet Micron lediglich Stacks mit 12 Speicher-Dies (12-High) und einer Kapazität von 36 GByte an. Muster mit 16 gestapelten Dies (16-High) und einer Kapazität von 48 GByte wurden aber bereits an Interessenten geliefert.
Daneben zeigen Micron, Samsung und SK Hynix mit LPDDR5X bestückte SOCAMM-Speichermodule. Die verwendet Nvidia bei der Vera-CPU , auch die DGX-Station nutzt die kompakten Module .
- Anzeige Hier geht es zum Samsung Galaxy S26 bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.



