Zum Hauptinhalt Zur Navigation

Analog Inference Accelerator: KI-Chip schafft 2.900 Teraops pro Watt

Imec und Globalfoundries nutzen die 22FDX- Halbleiterfertigung für ein effizientes IoT -Edge-Design.
/ Marc Sauter
5 Kommentare News folgen (öffnet im neuen Fenster)
Analog Inference Accelerator auf Testplatine (Bild: Globalfoundries)
Analog Inference Accelerator auf Testplatine Bild: Globalfoundries

Der Auftragsfertiger Globalfoundries und das flämische Forschungszentrum Imec haben einen KI-Chip entwickelt, der eine theoretische Rechenleistung von 2.900 Teraops pro Watt(öffnet im neuen Fenster) erreichen soll. Damit könnten sogenannte Edge-Geräte des Internets der Dinge vor Ort mit künstlicher Intelligenz ausgestattet werden, die mit sehr hoher Energieeffizienz ausgeführt wird. Andernfalls müssten Daten zur Auswertung erst in die Cloud und dann wieder zurückgeschickt werden.

Technische Basis des KI-Chips ist Globalfoundries' 22FDX -Verfahren mit isolierender Siliziumoxid-Sperrschicht (SOI). Der Prozess ist für eine sehr geringe Leistungsaufnahme und stark reduzierte Leckströme ausgelegt, wobei die 22FDX-RFA-Version für analoge Designs gedacht ist. Der KI-Chip wird als Analog Inference Accelerator bezeichnet, denn er nutzt Analog In Memory Computing. Weil die Daten digital eintreffen und digital ausgehen, sind Analog/Digital-Umsetzer verbaut.

So wird der Neumann-Engpass eliminiert, da die analogen Berechnungen der für künstliche Intelligenz notwendigen Vektor-Matrix-Multiplikationen im lokalen SRAM durchgeführt werden. Alternativ zu SRAM sind laut Imec und Globalfoundries auch Resistive RAM (ReRAM), Magnetischer RAM (MRAM), Flash-Speicher oder DRAM denkbar. Der Testchip im 22FDX-Node mit 512 KByte SRAM fällt mit 4 mm² winzig aus.

Den beiden Partnern zufolge kann der Analog Inference Accelerator bis zu 2.900 Teraops pro Watt erzielen. Diese sehr hohe Energieeffizienz ist wichtig zur Mustererkennung in Sensoren für Edge-Geräte, um eine Klassifizierung vor Ort ohne Cloud-Anbindung durchführen zu können, so sinken Latenz und Kosten. Ausgehend von der Referenzimplementierung soll der Analog Inference Accelerator weiterentwickelt werden, das Ziel sind 10.000 Teraops pro Watt.


Relevante Themen