Zum Hauptinhalt Zur Navigation

KI-Frameworks: Wie AMD die Cuda-Wand überwinden kann

Kaum ein Hersteller hat eine derartige Macht über die KI -Industrie, wie Nvidia . Doch die Konkurrenz schläft nicht und könnte bald ein Wörtchen mitreden.
/ Martin Böckmann
10 Kommentare News folgen (öffnet im neuen Fenster)
AMD hat starke Hardware im Angebot. Kunden brauchen aber die richtige Software, um sie auch nutzen zu können. (Bild: AMD)
AMD hat starke Hardware im Angebot. Kunden brauchen aber die richtige Software, um sie auch nutzen zu können. Bild: AMD

Wenn es um generative KI geht, sind Grafikkarten und der Hersteller Nvidia nicht wegzudenken. Wobei die eingesetzten GPUs mittlerweile nicht mehr viel mit den Pixelbeschleunigern gemein haben, die im heimischen PC zum Einsatz kommen. Doch die Dominanz Nvidias auf diesem Feld ist keine Selbstverständlichkeit.

Nvidia beschäftigt laut eigenen Angaben(öffnet im neuen Fenster) mehr Softwareentwickler als Hardware-Ingenieure. Die leistungsfähigen KI-Beschleuniger arbeiten eng mit der speziell dafür geschriebenen Software zusammen. Die Investitionen in dieses Ökosystem gehen über mehr als ein Jahrzehnt zurück, den Profit daraus fährt Nvidia aktuell mit Rekordmargen ein.

Während mehr und mehr Firmen generative KI-Software einsetzen, gibt es auch andere Anbieter von KI-Hardware. AMD hat mit der Instinct MI300 eine vielversprechende GPU im Angebot, auch Intel bietet mit Ponte Vecchio und Gaudi-3 potente Alternativen. Beide(öffnet im neuen Fenster) Hersteller(öffnet im neuen Fenster) versuchen, mit Migrations-Software den Umstieg von Cuda zu anderen Schnittstellen einfacher zu machen.

Die meisten neuen Modelle könnten auf AMD-GPUs laufen

Lange Zeit war Tensorflow das Mittel der Wahl, um KI-Modelle zu entwickeln. Tensorflow setzt auf die Cuda-Schnittstelle und damit exklusiv auf Nvidia-GPUs. Viele der über längere Zeit weiterentwickelten Modelle der großen Firmen sind daher noch immer an Nvidia gebunden. Bei den Neuentwicklungen sieht es aber bereits anders aus.

Laut Ryan O'Connor von Assembly-AI(öffnet im neuen Fenster) sind 92 Prozent der auf Huggingface verfügbaren Modelle mit Pytorch erstellt, einer Open-Source-Bibliothek zur Entwicklung von KI-Modellen und maschinellem Lernen. Hauptsächlich weiterentwickelt wird Pytorch von Facebooks KI-Forschungsgruppe. Bisher wird dabei als GPU-Schnittstelle meistens Cuda genutzt, das muss aber nicht so sein.

Code-Conversion muss nicht sein

Es gibt bereits eine Version von Pytorch(öffnet im neuen Fenster) , die AMD ROCm nutzt. Der Umstieg auf AMD-Hardware könnte daher einfacher sein als gedacht, indem die entsprechende Version von Pytorch eingesetzt wird. Viele Entwickler dürften diesen Schritt in den nächsten Monaten in Erwägung ziehen, da Nvidia-GPUs aktuell aufgrund der enormen Nachfrage sowohl teuer als auch schwer verfügbar sind.

AMDs kommende Instinct MI300X soll mit 192 GByte HBM3-Speicher, 24 Zen-4-Kerne und eine CDNA-3-GPU eine starke Alternative zu den vorherrschenden Nvidia-Chips werden. Durch den gemeinsam verwendeten HBM3-Speicher und Cache-Kohärenz wird die langsame Datenübertragung zwischen CPU und GPU reduziert, die in traditionellen Servern für schlechtere Performance und Effizienz verantwortlich ist.


Relevante Themen