In ASICs und FPGAs: Am Cern bewältigt eigene KI-Hardware riesige Datenmengen
Inhalt
Alle 25 ns lenkt der Large Hadron Collider (LHC) des Cern Pakete mit Billionen Protonen aufeinander. Einige Dutzend davon kollidieren, komplexe Detektoren fangen die dabei erzeugten Partikel auf. Dabei kommen immense Datenmengen zusammen: Aktuell liegt die Datenrate bei 4 TBit/s, durch den Ende 2026 startenden High-Luminosity-Ausbau des LHC (HL-LHC) steigt sie noch einmal auf 63 TBit/s.
Das seien fünf Prozent des weltweiten Internetverkehrs, so Cern-Forscherin Thea Aarrestad in einem Vortrag beim Monster Scale Summit(öffnet im neuen Fenster) . Sie bezog sich dabei auf das Compact-Muon-Solenoid-Experiment(öffnet im neuen Fenster) . Diese Datenmengen können weder in direkter Nähe der Detektoren verarbeitet noch gespeichert werden. Die Sensoren sind extrem empfindlich, weshalb lediglich einfache Schaltungen zum Puffern und Ausleiten der Daten verbaut werden können.
Noch bevor die Daten an die Oberfläche geschickt werden, werden 99,8 Prozent verworfen. Hunderte FPGAs (Field-Programmable Gate Arrays) haben teils nur wenige Dutzend Nanosekunden, um zu entscheiden, welche Daten interessant sind und behalten werden. Dabei setzt das Cern vermehrt auf Machine-Learning-Modelle (ML).
Nach FPGAs kommen eigene ASICs
Die werden bislang als eigene Schaltungen in FPGAs implementiert, mit dem HL-LHC kommen zusätzlich selbst entworfene ASICs (Application Specific Integrated Circuit) mit ML-Modellen hinzu.
Rund 10.000 ASICs komprimieren die Daten der neuen Kalorimeter, um sie überhaupt handhabbar zu machen: Insgesamt sind 6,5 Millionen Messkanäle zu verarbeiten.
Ein Teil der ASICs sitzt direkt auf den Sensoren, um die Daten zu sammeln. Mehrere davon sind an einen ASIC angebunden, der mittels Autoencoder(öffnet im neuen Fenster) die Kompression umsetzt. Die komprimierten Daten gehen dann zur weiteren Verarbeitung an die FPGAs. Die Nutzung des Autoencoders hat dabei einen praktischen Nebeneffekt: Anhand seiner Fehlerrate lassen sich interessante Ereignisse erkennen.
Fehler macht der Encoder bei Daten, die beim Training nicht vorkamen – und die damit potenziell besonders interessant für Forscher sind. Denn solche Ereignisse sind auch besonders selten. Das ist zugleich der Grund für die Erhöhung der Luminosität: Mehr Protonen pro Paket und mehr Pakete pro Sekunde führen zu mehr Kollisionen und damit Daten.
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.



