Zum Hauptinhalt Zur Navigation

Interconnect: OpenCAPI ist tot, es lebe der Compute Express Link

Um einen Beschleuniger oder ein Speichermodul an die CPU anzubinden, ist künftig der CXL (Compute Express Link) das Mittel der Wahl.
/ Marc Sauter
Kommentare News folgen (öffnet im neuen Fenster)
OpenCAPI wird Teil des Compute Express Link. (Bild: CXL)
OpenCAPI wird Teil des Compute Express Link. Bild: CXL

Das Compute-Express-Link-Konsortium und das OpenCAPI-Konsortium haben eine gemeinsame Absichtserklärung ( PDF(öffnet im neuen Fenster) ) abgegeben, wobei OpenCAPI im Compute Express Link aufgehen wird. Somit hat sich der CLX als Cache-kohärenter Interconnect für CPUs und daran angeschlossene Beschleuniger durchgesetzt, nachdem sich schon im November 2021 das Gen-Z- dem CXL-Konsortium angeschlossen hatte.

Die zwischen dem CXL- und dem OpenCAPI-Gremium geschlossene Absichtserklärung besagt, dass die Spezifikationen und Inhalte des OpenCAPI und des dazugehörigen Open Memory Interface (OMI) zum CXL transferiert werden, was faktisch das Ende des älteren Standards bedeutet. Das Gen-Z-Konsortium ging genauso vor, es lebt somit ebenfalls im Compute Express Link fort.

OpenCAPI wurde 2016(öffnet im neuen Fenster) von AMD, Dell EMC, Google, HPE, IBM, Mellanox (mittlerweile über Nvidia übernommen), Micron, Nvidia und Xilinx (unlängst von AMD gekauft) gegründet. Ziel war es, per Open Coherent Accelerator Processor Interface ein solches bereitzustellen. So unterstützt beispielsweise der Power9 AIO von IBM das OpenCAPI, diese spezielle Advanced-I/O-Variante des Power9 bindet via Open Memory Interface sogenannte Differential-DIMMs mit 650 GByte/s an – das war 2019 enorm viel.

Der Compute Express Link hat sich durchgesetzt

Hinter dem Compute Express Link wiederum stehen unter anderem Alibaba, AMD, ARM, Cisco, Dell, Facebook, Google, HPE, Huawei, Intel, Microsoft, Nvidia und Sipearl. Die aktuelle Version CXL 2.0 basiert elektrisch wie physisch auf PCIe Gen5, nutzt jedoch ein anderes Protokoll. Der Compute Express Link unterstützt diverse Modi, um Beschleuniger oder Speicher als Cache-kohärenter Interconnect an die CPU zu koppeln.

Die Unterstützung von CXL im Server/Supercomputer-Segment kann sich CPU-seitig sehen lassen: So nutzen AMDs Epyc-Genoa, ARMs Neoverse N2, Intels Sapphire Rapids und Sipearls Rhea den Compute Express Link. Passend dazu gibt es Beschleuniger wie Intels Ponte Vecchio oder spezielle Speichererweiterung von Samsung oder SK Hynix, die mehrere TByte an DRAM aufweisen.

Nachtrag vom 2. August 2022, 16:05 Uhr

Das CXL-Konsortium hat den Compute Express Link 3.0 vorgestellt ( PDF(öffnet im neuen Fenster) ), welcher abwärtskompatibel zum CXL 1.x und CXL 2.0 ist. Dabei basiert die neue Version des Compute Express Link auf PCIe Gen6 mit 64 GT/s anstatt von 32 GT/s, außerdem wurde unter anderem die Kohärenz des Interconnects verbessert ( PDF(öffnet im neuen Fenster) ).


Relevante Themen