Eigene Software für Hardware-Umsetzung von ML-Modellen
Die ML-Modelle sind beim Cern fest verschaltet, wie dies auch das Start-up Taalas macht . Trainiert werden die Modelle klassisch auf Großrechnern, die Übersetzung in Hardware übernimmt ein eigenes Tool namens HLS4ML. Das Python-Paket übersetzt in eine eigene Zwischensprache, aus der wiederum die Hardwarebeschreibung oder Code für einen KI-Beschleuniger abgeleitet werden können.
Die einzelnen Ebenen des Modells werden dabei jeweils als eigene Einheit abgebildet. Das ermöglicht getrennte Optimierung, um die nötige Durchlaufgeschwindigkeit zu erreichen, ohne die Ressourcen des FPGA zu sprengen. Dabei werden die Freiheiten angepasster Hardware voll genutzt: Um die Modelle so kompakt und leistungsfähig wie möglich zu machen, können die Datentypen beliebig angepasst (quantisiert) werden. Dabei wird Festkommaarithmetik genutzt.
Die Quantisierung ist dabei, anders als bei Software, auf Ebene einzelner Gewichtsparameter möglich. Die können auch mit 0 Bit angelegt werden – was ein gezieltes Entfernen nicht benötigter Parameter (Pruning) ermöglicht. Die Quantisierung wird bereits beim Training berücksichtigt, um Fehler durch ein nachträgliches Einschränken des Wertebereichs zu vermeiden.
Der Aufbau der neuen Sensorik für HL-LHC greift dabei auf jahrelange Erfahrung zurück: Die einzelnen Elemente wurden teils bereits vor mehreren Jahren entwickelt. Auch eigene Hardware, bislang auf FPGA-Basis, wird am Cern für die Sensoren aufgrund der großen Datenmengen bereits seit Langem genutzt.
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.