Zum Hauptinhalt Zur Navigation

Golem Plus Artikel
GPUs, NPUs & Co.:
Eine Führung durch den Zoo der KI-Beschleuniger

Golem-Erklärbär
GPUs , NPUs, FPGAs, optische, analoge oder gar eigene Chips: Für effiziente und leistungsfähige KI mangelt es nicht an Ideen. Wir geben einen Überblick.
/ Johannes Hiltscher
2 Kommentare News folgen (öffnet im neuen Fenster)
Der Artenreichtum bei KI-Beschleunigern ist mittlerweile fast so groß wie in einem Tierpark. (Bild: Lyndi & Jason, Flickr; Montage: Golem.de)
Der Artenreichtum bei KI-Beschleunigern ist mittlerweile fast so groß wie in einem Tierpark. Bild: Lyndi & Jason, Flickr; Montage: Golem.de / CC-BY-SA 2.0

Wer an KI denkt, denkt vermutlich zuerst auch an Grafikkarten (GPUs). Doch während sich die künstliche Intelligenz in immer mehr Bereiche ausdehnt und ihre Nutzung alltäglich wird, kommt zunehmend spezialisierte KI-Hardware auf den Markt. Neural Processing Units (NPUs) finden sich in immer mehr Prozessoren und Systems on Chip (SoCs). Forscher und Start-ups arbeiten an teils ausgefallenen Ideen. Wir geben einen Überblick, zeigen die Unterschiede und Gemeinsamkeiten auf und erklären, welcher Beschleuniger sich wofür eignet.

Denn auch wenn die Namen sich unterscheiden, ist die grundlegende Funktionsweise bei allen KI-Beschleunigern gleich. Das liegt daran, dass alle letztlich Modelle bearbeiten, welche die selben Operationen verwenden. Den Großteil des Rechenaufwands verursachen die allgegenwärtigen Matrixmultiplikationen: Mit ihnen werden die Eingaben der einzelnen Schichten von künstlichen Neuronen gewichtet – die Gewichtsmatrix verknüpft jedes Neuron mit jedem Eingangswert – und die Einbettungen (Embeddings) von Transformer-Modellen umgesetzt.

Golem Plus Artikel