KI-Beschleuniger: AMD baut Cuda-Kompatibilität und lässt sie fallen
In den vergangenen zwei Jahren hat der Entwickler Andrzej Janik im Auftrag von AMD mit Zluda ein Projekt erstellt, das es ermöglicht, Anwendungen, die auf Nvidias Cuda-Schnittstelle abzielen, unmodifiziert auf AMD-Hardware laufen zu lassen. Der Code dazu steht nun als Open-Source-Software bereit(öffnet im neuen Fenster) , da sich AMD den Aussagen von Janik zufolge dagegen entschieden hat, die Kompatibilitätsschicht aktiv zu verwenden und zu vermarkten.
Ursprünglich war Zluda als Cuda-Kompatibilität für Intel-GPUs gedacht und wurde als Projekt auch für diesen Zweck von Janik als Intel-Angestellten umgesetzt. Doch Intel entschied sich letztlich gegen das Projekt. Daraufhin kontaktierte AMD Janik und beauftragte ihn Anfang des Jahres 2022 mit einer Portierung von Zluda auf aktuelle AMD GPUs. Zur Veröffentlichung schreibt Janik weiter: "Eine der Bedingungen meines Vertrags mit AMD war, dass ich es veröffentlichen konnte, wenn AMD es für nicht geeignet für die weitere Entwicklung hielt. Das bringt uns zum heutigen Tag."
Cuda-Kompatibilität nachvollziehbar, aber nicht mehr notwendig
Ein großer Marktvorteil für Nvidia war lange Zeit, dass hochspezialisierte Software und KI-Modelle sowie die dafür genutzten Frameworks direkt auf der Cuda-Software des Herstellers aufsetzten. Um diese zu verwenden, mussten also GPUs und KI-Beschleuniger von Nvidia genutzt werden, was wiederum das Angebot der Beschleuniger von AMD teils in große Bedrängnis brachte. Eine Cuda-Kompatibilität erscheint hier als logischer Schritt.
Zusätzlich zu dem nun vorgestellten Projekt zur Binärkompatibilität zu Cuda arbeitet AMD zudem seit Jahren an einem eigenen freien und offenen Software-Stack zur GPU-Beschleunigung . Ein Teil dieser Arbeiten umfasst auch ein Projekt, um Cuda-Code umzuwandeln(öffnet im neuen Fenster) , damit dieser mit AMDs ROCm genutzt werden kann. Für kommende Anwendungen erscheint AMD die Cuda-Kompatibilität aber offenbar nicht mehr besonders wichtig zu sein. So setzten viele große KI-Projekte inzwischen auf Pytorch, das direkt mit AMDs ROCm beschleunigt werden kann. Das könnte AMD helfen, die Cuda-Konkurrenz zu überwinden . AMD selbst baut zudem den Support für ROCm auf seiner Hardware und den unterstützten Betriebssystemen aktiv weiter aus .
Der Fokus von AMD in Bezug auf die Notwendigkeit von Zluda dürfte sich also grundlegend geändert haben. Für das Projekt selbst heißt das, dass es wohl nicht weiterentwickelt werden wird, wie Entwickler Janik schreibt. Nach dem Ausstieg von Intel und AMD aus der Projektförderung gebe es kein GPU-Unternehmen mehr, dass daran interessiert sein dürfte. Die Software, die der Entwickler als Alpha-Qualität beschreibt, lässt sich jedoch mit einigen Anwendungen nutzen und ist laut ersten Benchmarks des Magazins Phoronix(öffnet im neuen Fenster) sogar teilweise schneller als die nativen Codepfade für AMD-Hardware.
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.



