HPE: Was The Machine ist und was nicht
Einst auch als Produkt geplant, hat The Machine mittlerweile verstärkt den Charakter eines Forschungsprojekts. HPEs Idee eines Computers mit gigantischem, nicht flüchtigem Speicherpool scheiterte unter anderem an den Partnern. In Zukunft dürfte The Machine dennoch eine wichtige Rolle spielen.

Anfang der Woche hat Hewlett Packard Enterprise (HPE) nach fast zweieinhalb Jahren Funkstille verkündet, dass The Machine funktioniert und erste Prototypen seit Oktober 2016 in den HP Labs laufen. Allerdings spricht HPE nicht mehr von The Machine als Produkt, das in Form von Rack-Servern an Kunden verkauft werden soll. Stattdessen ist nur noch von einem Forschungsprojekt mit dem Ziel die Rede, dass The Machine Research Project den Fortschritt von sogenanntem Memory-Driven Computing demonstriert.
- HPE: Was The Machine ist und was nicht
- Bye bye Memristor, hello 3D-ReRAM
- Ein großer Speicherpool für alle
Von der 2014 angekündigten Idee wurden zwar viele Punkte umgesetzt, zwei relevante Meilensteine wird The Machine aber frühestens in einem halben Jahrzehnt erreichen. Angedacht war ein System mit Hunderten von Systems-on-a-Chip mit über einem Petabyte an Speicher pro Rack-Unit (RU), auf das alle Recheneinheiten via Fabric und optischer Verbindung als gigantischen Pool zugreifen können. Der sollte aus nicht flüchtigem Memristor-Speicher bestehen und vom komplett neu entwickelten MachineOS gesteuert werden.
Der Stand des Prototyps entspricht dem nicht: Pro RU gibt es gerade mal einen ARM-basierten Prozessor mit unbekannter Geschwindigkeit und Kernanzahl, der Speicherpool fasst 4 Terabyte (nicht Petabyte) und besteht aus DRAM. Das ist zwar flüchtiger Speicher - Strom weg, Daten weg -, aber eben doch sehr viel für eine CPU. In ähnliche Bereiche kommen einzig IBMs Power8(+) und Power9, wenn sie mit vier Centaur-Chips für Buffered Memory ausgestattet sind. Die anderen Prozessoren im Server-Schrank haben allerdings darauf keinen Zugriff, was bei The Machine entsprechend dem Konzept anders ist.
Heutige Systeme haben meist mehrere Cache-, Memory- und Storage-Stufen (Tiers) pro Rack, wobei gilt: Je schneller und flüchtiger der Speicher, desto weniger Daten passen hinein. Bei Caches sind es Kilo- oder Megabyte, beim RAM immerhin Terabyte und Storage teils im Petabyte-Bereich.
SK Hynix ist als Partner erst mal raus
HPE wollte ursprünglich auf Memristoren setzen, einen nicht flüchtigen Speicher (Non Volatile Memory). Mittlerweile spricht die Industrie auch von sogenanntem Storage Class Memory: Gemeint ist Speicher, der halbwegs die Geschwindigkeit von DRAM, dabei aber eine viel höhere Kapazität aufweist, haltbarer als NAND-Flash und kostengünstiger zu produzieren ist.
Der Partner für die Memristoren war SK Hynix, das jedoch die Technik bis heute nicht in passender Menge und mit genügend Speicherplatz fertigt. Stattdessen konzentrieren sich die Südkoraner auf DRAM und 3D-NAND-Flash, hinken aber hinter Samsung, Flash Forward sowie IMFT her. Als nächsten Schritt für 2017 möchte HPE die Speicherpool-Kapazität für The Machine erhöhen, angedacht sind 256 GByte große DIMMs statt solche mit 128 GByte.
Der Clou sind aber nicht die Riegel an sich, sondern das Fabric.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Bye bye Memristor, hello 3D-ReRAM |
Nun muss ich endlich mal antworten. Das erste Video habe ich schon vor Tagen angesehen...
Mich interessiert: wieso?
+1 unterschätzte Serie Wie man in der letzten Staffel erfährt nutzt die Maschine aber...
Lol, war auch mein erster Gedanke ;)