Interconnect: OpenCAPI ist tot, es lebe der Compute Express Link
Um einen Beschleuniger oder ein Speichermodul an die CPU anzubinden, ist künftig der CXL (Compute Express Link) das Mittel der Wahl.

Das Compute-Express-Link-Konsortium und das OpenCAPI-Konsortium haben eine gemeinsame Absichtserklärung (PDF) abgegeben, wobei OpenCAPI im Compute Express Link aufgehen wird. Somit hat sich der CLX als Cache-kohärenter Interconnect für CPUs und daran angeschlossene Beschleuniger durchgesetzt, nachdem sich schon im November 2021 das Gen-Z- dem CXL-Konsortium angeschlossen hatte.
Die zwischen dem CXL- und dem OpenCAPI-Gremium geschlossene Absichtserklärung besagt, dass die Spezifikationen und Inhalte des OpenCAPI und des dazugehörigen Open Memory Interface (OMI) zum CXL transferiert werden, was faktisch das Ende des älteren Standards bedeutet. Das Gen-Z-Konsortium ging genauso vor, es lebt somit ebenfalls im Compute Express Link fort.
OpenCAPI wurde 2016 von AMD, Dell EMC, Google, HPE, IBM, Mellanox (mittlerweile über Nvidia übernommen), Micron, Nvidia und Xilinx (unlängst von AMD gekauft) gegründet. Ziel war es, per Open Coherent Accelerator Processor Interface ein solches bereitzustellen. So unterstützt beispielsweise der Power9 AIO von IBM das OpenCAPI, diese spezielle Advanced-I/O-Variante des Power9 bindet via Open Memory Interface sogenannte Differential-DIMMs mit 650 GByte/s an - das war 2019 enorm viel.
Der Compute Express Link hat sich durchgesetzt
Hinter dem Compute Express Link wiederum stehen unter anderem Alibaba, AMD, ARM, Cisco, Dell, Facebook, Google, HPE, Huawei, Intel, Microsoft, Nvidia und Sipearl. Die aktuelle Version CXL 2.0 basiert elektrisch wie physisch auf PCIe Gen5, nutzt jedoch ein anderes Protokoll. Der Compute Express Link unterstützt diverse Modi, um Beschleuniger oder Speicher als Cache-kohärenter Interconnect an die CPU zu koppeln.
Die Unterstützung von CXL im Server/Supercomputer-Segment kann sich CPU-seitig sehen lassen: So nutzen AMDs Epyc-Genoa, ARMs Neoverse N2, Intels Sapphire Rapids und Sipearls Rhea den Compute Express Link. Passend dazu gibt es Beschleuniger wie Intels Ponte Vecchio oder spezielle Speichererweiterung von Samsung oder SK Hynix, die mehrere TByte an DRAM aufweisen.
Nachtrag vom 2. August 2022, 16:05 Uhr
Das CXL-Konsortium hat den Compute Express Link 3.0 vorgestellt (PDF), welcher abwärtskompatibel zum CXL 1.x und CXL 2.0 ist. Dabei basiert die neue Version des Compute Express Link auf PCIe Gen6 mit 64 GT/s anstatt von 32 GT/s, außerdem wurde unter anderem die Kohärenz des Interconnects verbessert (PDF).
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Kommentieren