Exascale: Europa-Supercomputer nutzt ARM mit Intel-Beschleunigern

Der erste europäische Supercomputer der Exascale-Klasse kombiniert eigene ARM-Prozessoren, die Sipearl Rhea, mit Intels Ponte Vecchio.

Artikel veröffentlicht am ,
Rhea plus Ponte Vecchio für Exascale
Rhea plus Ponte Vecchio für Exascale (Bild: Sipearl)

US-Bauteile für Europa: Um den ersten europäischen Exaflops-Supercomputer früh bauen zu können, sollen in der EU entwickelte ARM-Chips mit Intel-Beschleunigern zusammengeführt werden. Sipearl, der französische Entwickler des CPU-Designs, wird hierzu Intels oneAPI-Software-Stack integrieren.

Derzeit arbeitet Sipearl am Rhea, einem ARM-Prozessor auf Basis des Neoverse-V1 alias Zeus genannten Design. Der Rhea sollte ursprünglich 72 Kerne aufweisen und mit 7 nm DUV (via TSMC N7) gefertigt werden, mittlerweile sind jedoch 64 Kerne und 6 nm EUV (via TSMC N6) geplant.

Neben mehreren Controllern für DDR5-Arbeitsspeicher unterstützt der Chip auch multiple HBM2-Stapelspeicher-Stacks, was die Bandbreite zulasten der maximalen Kapazität erhöht. Neben PCIe Gen5 gibt es den CCIX (Cache Coherent Interconnect for Accelerators) und den CXL (Compute Express Link), um Beschleuniger anzubinden - wie eben die Ponte Vecchio von Intel.

Das Ziel ist ein Exaflops

Für jeden davon werden satte 16 Tile-Chiplets kombiniert: Sie befinden sich auf einem Interposer, darunter die Compute-Dies (Xe HPC), der Rambo-Cache, der Xe I/O-Link und der HBM2-Stapelspeicher. Verknüpft werden sie durch EMIB und Foveros, also 2.5D- sowie 3D-Stacking. Einige dieser Blöcke fertigt Intel selbst, andere kommen von TSMC mit 6 nm.

  • Rhea ist eine ARM-basierte CPU mit Neoverse-V1-Design. (Bild: Sipearl)
  • Der Prozessor soll 64 Kerne aufweisen und Beschleuniger anbinden. (Bild: Sipearl)
  • Sipearl ist Teil der EPI, die eigene Chips für europäische Supercomputer entwickelt. (Bild: SiPearl)
Rhea ist eine ARM-basierte CPU mit Neoverse-V1-Design. (Bild: Sipearl)

Wie hoch die Rechenleistung von Ponte Vecchio bei doppelter Genauigkeit (FP64) ausfällt, hat Intel noch nicht verraten. Die aktuellen A0-Modelle sollen jedoch über 45 Teraflops bei FP32-Präzision erreichen, was über 20 Teraflops bei FP64 vermuten lässt.

In welchem Exaflops-System die Kombination aus Rhea und Ponte Vecchio stecken wird, sagte Sipearl nicht. Die CPU ist ohnehin noch nicht fertig, weshalb 2023 als wahrscheinlicher Zeitpunkt für einen entsprechenden Supercomputer anzunehmen ist.

Das Bundesministerium für Bildung und Forschung (BMBF) hatte zuletzt 2024 als Termin für einen Exaflops-Rechner in Deutschland genannt, er könnte aber auch schon früher fertig sein.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


ms (Golem.de) 29. Okt 2021

Ich zitiere mich ^^ "Supercomputer werden für vielerlei Berechnungen verwendet, von der...

brotiger 28. Okt 2021

Ähm, es gibt bereits jede Menge Verzögerungen. Selbst Argonne hat noch keine Ponte...

pica 28. Okt 2021

war seiner Zeit leistungsfähiger als Alles, was die USA liefern konnte. Dann hat Atlas...



Aktuell auf der Startseite von Golem.de
Direkte-E-Fuel-Produktion  
Porsches Masterplan hinter dem Verbrennerkompromiss

Der Sportwagenhersteller will künftig E-Fuels direkt im Fahrzeug produzieren. Dazu übernimmt Porsche das strauchelnde Start-up Sono Motors.
Ein Bericht von Friedhelm Greis

Direkte-E-Fuel-Produktion: Porsches Masterplan hinter dem Verbrennerkompromiss
Artikel
  1. BrouwUnie: Tesla verkauft Giga Bier zu einem stolzen Preis
    BrouwUnie
    Tesla verkauft Giga Bier zu einem stolzen Preis

    Tesla hat, wie von Elon Musk versprochen, nun eine eigene Biermarke im Angebot und verkauft drei Flaschen für knapp 90 Euro.

  2. Google: Ursache für Acropalypse-Lücke in Android seit Jahren bekannt
    Google
    Ursache für Acropalypse-Lücke in Android seit Jahren bekannt

    Eine wohl undokumentierte API-Änderung führte zu der Acropalypse-Sicherheitslücke. Das Problem dabei ist Google schon früh gemeldet worden.

  3. Sprachmodelle: Warum ChatGPT so erfolgreich ist
    Sprachmodelle
    Warum ChatGPT so erfolgreich ist

    KI-Insider Wie erklärt sich der Erfolg von ChatGPT, obwohl es nur eines von vielen Sprachmodellen und leistungsstarken KI-Systemen ist? Drei Faktoren sind ausschlaggebend.
    Von Thilo Hagendorff

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • ASUS VG27AQ1A QHD/170 Hz 269€ • Crucial P3 Plus 1 TB 60,98€ • ViewSonic VX3218-PC-MHDJ FHD/165 Hz 227,89€ • MindStar: be quiet! Pure Base 600 79€ • Alternate: Corsair Vengeance RGB 64-GB-Kit DDR5-6000 276,89€ und Weekend Sale • Elex II 12,99€ • 3 Spiele kaufen, 2 zahlen [Werbung]
    •  /