GPUs, NPUs & Co.: Eine Führung durch den Zoo der KI-Beschleuniger

Wer an KI denkt, denkt vermutlich zuerst auch an Grafikkarten (GPUs). Doch während sich die künstliche Intelligenz in immer mehr Bereiche ausdehnt und ihre Nutzung alltäglich wird, kommt zunehmend spezialisierte KI-Hardware auf den Markt. Neural Processing Units (NPUs) finden sich in immer mehr Prozessoren und Systems on Chip (SoCs). Forscher und Start-ups arbeiten an teils ausgefallenen Ideen. Wir geben einen Überblick, zeigen die Unterschiede und Gemeinsamkeiten auf und erklären, welcher Beschleuniger sich wofür eignet.
Denn auch wenn die Namen sich unterscheiden, ist die grundlegende Funktionsweise bei allen KI-Beschleunigern gleich. Das liegt daran, dass alle letztlich Modelle bearbeiten, welche die selben Operationen verwenden. Den Großteil des Rechenaufwands verursachen die allgegenwärtigen Matrixmultiplikationen: Mit ihnen werden die Eingaben der einzelnen Schichten von künstlichen Neuronen gewichtet – die Gewichtsmatrix verknüpft jedes Neuron mit jedem Eingangswert – und die Einbettungen (Embeddings) von Transformer-Modellen umgesetzt.