Machine Learning: LLVM könnte Tensor-Erweiterungen bekommen

Zur Beschleunigung von Machine Learning gibt es inzwischen Hardware-Support für Tensoren. LLVM könnte dies in Compilern unterstützen.

Artikel veröffentlicht am ,
Das LLVM-Maskottchen ist ein Drache.
Das LLVM-Maskottchen ist ein Drache. (Bild: Pixabay)

Ein Forschungsteam von Intel, Amazons Web Services (AWS) sowie der University of Illinois at Urbana-Champaign (UIUC), an der das LLVM-Projekt entstanden ist, planen eine Vereinheitlichung von Tensor-Operationen in dem Compiler-Projekt LLVM. Primäres Ziel und Fokus der Arbeiten ist dabei eine bessere Unterstützung von Machine-Learning-Aufgaben, aber auch andere Berechnungen könnten damit vereinfacht werden.

Zur Unterstützung und vor allem für die Beschleunigung von Machine Learning setzen Hardware-Hersteller schon jetzt auf einige Besonderheiten in ihren Chips. Das Team zählt in seiner Ankündigung etwa verschiedene Befehlssätze und Einheiten in Hardware auf wie Intel AMX, Power MMA, Nvidias Tensor-Kerne, AMDs Matrix-Kerne oder Qualcomms HVX. Hinzu komme dann auch noch dedizierte Hardware wie von Nvidia oder AWS.

Mit einer guten und vor allem breiten LLVM-Unterstützung könnten diese Hersteller entsprechende Compiler-Backends einfacher für ihre eigene Hardware umsetzen, heißt es. Dazu könnte etwa der bereits in LLVM vorhandene Support für Vektor- und Matrix-Operationen auf Tensoren übertragen beziehungsweise verallgemeinert werden. Der wohl wichtigste Teil in Bezug auf LLVM ist, dass das Projekt so gestaltet ist, dass die eigentlichen Hardware-Ziele vergleichsweise leicht ausgetauscht werden können.

Ziel der nun vorgestellten Initiative ist ein Framework, das solchen Code für Tensoren generieren kann. Grundlage dafür soll der klassische LLVM-Code sein, ebenso wie die im vergangenen Jahr vorgestellte MLIR. Eigenen Aussagen zufolge arbeitet das Team zusammen mit AWS, Intel, IBM und Qualcomm an einem Prototyp. In dem nun veröffentlichten Vorschlag wird die LLVM IR um Tensor-Operationen erweitert, was TLX (Tensor LLVM eXtensions) genannt wird.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Aktuell auf der Startseite von Golem.de
OpenAI
Girlfriend-Chatbots verstoßen gegen die Regeln des GPT-Store

Nur einen Tag, nachdem OpenAI ChatGPT für Entwickler geöffnet hat, lassen sich Angebote finden, die es nicht geben dürfte.

OpenAI: Girlfriend-Chatbots verstoßen gegen die Regeln des GPT-Store
Artikel
  1. AVM: Huawei-Patent kommt in Fritzboxen nicht zum Einsatz
    AVM
    Huawei-Patent kommt in Fritzboxen nicht "zum Einsatz"

    Huawei hat einen großen Patentpool zu Wi-Fi 6. Fritzbox-Hersteller AVM hat die Patente nach eigenen Angaben in seinen Wi-Fi-6-Routern nicht genutzt, will sie aber dennoch für ungültig erklären lassen.

  2. LTE: Kaum weniger Funklöcher in Deutschland
    LTE
    Kaum weniger Funklöcher in Deutschland

    Während bei 5G viel ausgebaut wurde, haben die Netzbetreiber zu wenig LTE-Funklöcher geschlossen. Das ergab zumindest eine Auswertung von Verivox.

  3. E-Corner: Hyundai entwickelt Klappräder zum seitlichen Einparken
    E-Corner
    Hyundai entwickelt Klappräder zum seitlichen Einparken

    Die Hyundai-Tochter Mobis präsentiert eine Technik, mit der sich die Autoräder seitlich drehen lassen, um das parallele Einparken zu erleichtern.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Lenovo 34" 21:9 Curved WQHD 299€ • ASRock RX 7900 XTX 1.039,18€ • War Hospital 21,59€ • Amazon-Geräte -50% • Acer 34" OLED UWQHD 175Hz 999€ • PS5 + Spider-Man 2 569€ • AMD Ryzen 9 5950X 379€ • Switch-Controller 17,84€ • AOC 27" QHD 165Hz 229€ • 3 Spiele für 49€ [Werbung]
    •  /