Interconnect: OpenCAPI ist tot, es lebe der Compute Express Link

Um einen Beschleuniger oder ein Speichermodul an die CPU anzubinden, ist künftig der CXL (Compute Express Link) das Mittel der Wahl.

Artikel veröffentlicht am ,
OpenCAPI wird Teil des Compute Express Link.
OpenCAPI wird Teil des Compute Express Link. (Bild: CXL)

Das Compute-Express-Link-Konsortium und das OpenCAPI-Konsortium haben eine gemeinsame Absichtserklärung (PDF) abgegeben, wobei OpenCAPI im Compute Express Link aufgehen wird. Somit hat sich der CLX als Cache-kohärenter Interconnect für CPUs und daran angeschlossene Beschleuniger durchgesetzt, nachdem sich schon im November 2021 das Gen-Z- dem CXL-Konsortium angeschlossen hatte.

Die zwischen dem CXL- und dem OpenCAPI-Gremium geschlossene Absichtserklärung besagt, dass die Spezifikationen und Inhalte des OpenCAPI und des dazugehörigen Open Memory Interface (OMI) zum CXL transferiert werden, was faktisch das Ende des älteren Standards bedeutet. Das Gen-Z-Konsortium ging genauso vor, es lebt somit ebenfalls im Compute Express Link fort.

OpenCAPI wurde 2016 von AMD, Dell EMC, Google, HPE, IBM, Mellanox (mittlerweile über Nvidia übernommen), Micron, Nvidia und Xilinx (unlängst von AMD gekauft) gegründet. Ziel war es, per Open Coherent Accelerator Processor Interface ein solches bereitzustellen. So unterstützt beispielsweise der Power9 AIO von IBM das OpenCAPI, diese spezielle Advanced-I/O-Variante des Power9 bindet via Open Memory Interface sogenannte Differential-DIMMs mit 650 GByte/s an - das war 2019 enorm viel.

Der Compute Express Link hat sich durchgesetzt

Hinter dem Compute Express Link wiederum stehen unter anderem Alibaba, AMD, ARM, Cisco, Dell, Facebook, Google, HPE, Huawei, Intel, Microsoft, Nvidia und Sipearl. Die aktuelle Version CXL 2.0 basiert elektrisch wie physisch auf PCIe Gen5, nutzt jedoch ein anderes Protokoll. Der Compute Express Link unterstützt diverse Modi, um Beschleuniger oder Speicher als Cache-kohärenter Interconnect an die CPU zu koppeln.

  • Der Compute Express Link nutzt PCIe Gen5 ... (Bild: CXL Consortium)
  • ... und unterstützt primär drei Modi. (Bild: CXL Consortium)
Der Compute Express Link nutzt PCIe Gen5 ... (Bild: CXL Consortium)

Die Unterstützung von CXL im Server/Supercomputer-Segment kann sich CPU-seitig sehen lassen: So nutzen AMDs Epyc-Genoa, ARMs Neoverse N2, Intels Sapphire Rapids und Sipearls Rhea den Compute Express Link. Passend dazu gibt es Beschleuniger wie Intels Ponte Vecchio oder spezielle Speichererweiterung von Samsung oder SK Hynix, die mehrere TByte an DRAM aufweisen.

Nachtrag vom 2. August 2022, 16:05 Uhr

Das CXL-Konsortium hat den Compute Express Link 3.0 vorgestellt (PDF), welcher abwärtskompatibel zum CXL 1.x und CXL 2.0 ist. Dabei basiert die neue Version des Compute Express Link auf PCIe Gen6 mit 64 GT/s anstatt von 32 GT/s, außerdem wurde unter anderem die Kohärenz des Interconnects verbessert (PDF).

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Aktuell auf der Startseite von Golem.de
25 Jahre Grim Fandango
Toller Trip durch das Reich der Toten

Morbide und lustig: Grim Fandango war kein Erfolg und gilt trotzdem als Klassiker. Golem.de hat es erneut durchgespielt - und war wieder begeistert.
Von Andreas Altenheimer

25 Jahre Grim Fandango: Toller Trip durch das Reich der Toten
Artikel
  1. Star Wars: Holiday Special jetzt in 4K mit 60 fps
    Star Wars
    Holiday Special jetzt in 4K mit 60 fps

    Eine bessere Story bekommt der legendär schlechte Film dadurch leider nicht. Bis heute lieben ihn einige Fans aber vor allem wegen seiner Absurdität.

  2. Autonomes Fahren: Im Märzen der Bauer den Roboter einspannt
    Autonomes Fahren
    Im Märzen der Bauer den Roboter einspannt

    Landmaschinen ohne Fahrer, Traktoren, die mit Gesten gesteuert werden - autonome Systeme sollen in der Landwirtschaft gleich mehrere Probleme lösen.
    Ein Bericht von Werner Pluta

  3. Lohn und Gehalt: OpenAI-Entwickler verdienen bis zu 800.000 US-Dollar im Jahr
    Lohn und Gehalt
    OpenAI-Entwickler verdienen bis zu 800.000 US-Dollar im Jahr

    Die Firma hinter Chat-GPT zahlt im Vergleich zu Unternehmen wie Nvidia besonders gut. Erfahrene Forscher und Entwickler auf dem Gebiet sind Mangelware.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Crucial P5 Plus 2 TB mit Kühlkörper 114,99€ • Crucial Pro 32 GB DDR5-5600 79,99€ • Logitech G915 TKL LIGHTSYNC RGB 125,11€ • Anthem PC 0,99€ • Wochenendknaller bei MediaMarkt • MindStar: Patriot Viper VENOM 64 GB DDR5-6000 159€, XFX RX 7900 XT Speedster MERC 310 Black 789€ [Werbung]
    •  /