Suche

PrefixRL: Nvidia macht GPU-Schaltungen ein Viertel kompakter

Künstliche Intelligenz kann teils bessere Chips entwerfen als von Menschen geschriebene Software. Nvidia hat dies bei Hopper eingesetzt.

Artikel veröffentlicht am ,
Links der per KI erstellte 64-Bit-Addierer, rechts der per EDA (Bild: Nvidia)

Das Design von Schaltungen und auch der Entwurf eines Floorplans sind hochkomplexe Schritte auf dem Weg hin zu einem fertigen Chip, die neben spezieller Software auch viel menschliches Know-how erfordern. Neben Google nutzt daher auch Nvidia unterstützend künstliche Intelligenz, mit einem sehr respektablem Ergebnis: Per PrefixRL genanntem Ansatz (siehe PDF) soll ein 64-Bit-Addierer um ein Viertel kompakter ausfallen als ein mit klassischer EDA-Software erstellter.

Anzeige

Wie Nvidia in einem Blog-Eintrag ausführt, wird bei PrefixRL auf verstärkendes Lernen (Reinforcement Learning) gesetzt, um Schaltungen von der künstliche Intelligenz statt von der Electronic Design Automation generieren zu lassen. Im aktuellen GH100-Grafikchip des H100-Beschleunigers sollen rund 13.000 Instanzen von per PrefixRL erstellten Schaltungen vorhanden sein, die GPU selbst weist 80 Milliarden Transistoren auf.

Großer Aufwand - der sich aber lohnt

Für das Design einer Schaltung ist eine Vielzahl von Parametern relevant - sie soll ebenso schnell wie sparsam sein, dabei möglichst wenig wertvolle Chipfläche belegen und Leitungen müssen kurz gehalten werden. Wie hoch der Aufwand dafür sein kann, zeigte sich bei der Entwicklung des 64-Bit-Addierers mit PrefixRL, welcher über 32.000 GPU-Stunden an Rechenzeit erforderte. Nvidia hat dafür mit Raptor sogar intern eine Plattform entworfen, die explizit für diese industrielle Anwendung von verstärkendem Lernen ausgelegt ist.

Google wiederum hatte mit einem Prime getauften Ansatz gezeigt, dass dieser bessere Ergebnisse liefert und weniger Zeit für Simulationen benötigt als ein mittels evolutionärem Ansatz optimiertes Design. Auch beim Erstellen des Floorplans eines Chips nutzt Google unterstützend künstliche Intelligenz, etwa für die eigenen TPUs (Tensor Processing Units).