• IT-Karriere:
  • Services:

Trainium: AWS hat Training-Chip selbst entwickelt

Das Trainium-Design soll Training für maschinelles Lernen besonders preisgünstig in der eigenen AWS-Cloud ermöglichen.

Artikel veröffentlicht am ,
Trainium für maschinelles Lernen
Trainium für maschinelles Lernen (Bild: AWS)

Amazon Web Services (AWS), die Cloud-Computing-Sparte von Amazon, hat den Trainium vorgestellt. Wie es der Name bereits impliziert, handelt es sich um ein für das Training von neuronalen Netzen ausgelegtes Design. So wie schon die Inferentia-ASICs und die Graviton2-CPUs hat AWS auch den Trainium-Chip selbst entwickelt, um damit eigene Instanzen zu bestücken.

Stellenmarkt
  1. DRÄXLMAIER Group, Vilsbiburg bei Landshut
  2. SCHOTT AG, Mainz

Der Trainium soll im zweiten Halbjahr 2021 verfügbar sein, der Fokus liegt auf einer sehr hohen Performance pro Preis. Laut AWS sind die Instanzen noch preiswerter als die mit Intels Habana Gaudi, welche bereits 40 Prozent mehr Geschwindigkeit pro US-Dollar aufweisen sollen als die teure p4d.24xlarge-Konfiguration mit acht Nvidia A100.

Zur Performance und zur Technik des Trainium hat sich AWS nicht geäußert, die damit ausgestatteten Instanzen sollen aber die höchste Teraflops-Leistung aller für maschinelles Lernen gedachten Cloud-Instanzen aufweisen. Der Trainium unterstützt typische Frameworks wie Tensorflow und Pytorch oder MXNet, das Neuron genannte Software Development Kit (SDK) ist das gleiche wie bei den Inferentia-ASICs.

  • Trainium ist ein selbst entwickelter Training-Chip. (Bild: AWS)
  • Damit versehene Instanzen sollen sehr viele Teraflops erreichen. (Bild: AWS)
Trainium ist ein selbst entwickelter Training-Chip. (Bild: AWS)

Somit bietet AWS künftig eigene Designs und Instanzen für Training, also das Anlernen von neuronalen Netzen, und für Inferencing, sprich das Ausführen dieser vorab trainierten Algorithmen, an. Trainium soll in den EC2-Instanzen (Elastic Compute Cloud) und im Sagemaker-Dienst verfügbar sein, dort ist die vorgefertigte Auswahl an Lernalgorithmen und Frameworks gegeben, die laut AWS häufig eingesetzt werden.

Der Vorteil eigener Chips ist die dadurch erreichte vertikale Integration, da Hardware und Software aus einer Hand kommen - das vereinfacht gegenseitige Optimierungen, weshalb die Leistung steigt und die Kosten sinken.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Anzeige
Spiele-Angebote
  1. 8,49€
  2. 20,49€

Folgen Sie uns
       


Übersetzung mit DeepL - Tutorial

Wir zeigen im Video, wie die Windows-Version des Übersetzungsprogramms DeepL funktioniert.

Übersetzung mit DeepL - Tutorial Video aufrufen
20 Jahre Wikipedia: Verlässliches Wissen rettet noch nicht die Welt
20 Jahre Wikipedia
Verlässliches Wissen rettet noch nicht die Welt

Noch nie war es so einfach, per Wikipedia an enzyklopädisches Wissen zu gelangen. Doch scheint es viele Menschen gar nicht mehr zu interessieren.
Ein IMHO von Friedhelm Greis

  1. Desktop-Version Wikipedia überarbeitet "klobiges" Design

USA: Die falsche Toleranz im Silicon Valley muss endlich aufhören
USA
Die falsche Toleranz im Silicon Valley muss endlich aufhören

Github wirft einen Juden raus, der vor Nazis warnt, weil das den Betrieb stört. Das ist moralisch verkommen - wie üblich im Silicon Valley.
Ein IMHO von Sebastian Grüner

  1. CES 2021 So geht eine Messe in Pandemie-Zeiten
  2. Handyortung Sinnloser Traum vom elektronischen Zaun gegen Corona
  3. CD Projekt Red Crunch trifft auf Cyberpunk 2077

CPU und GPU vereint: Wie die Fusion zu AMDs Zukunft wurde
CPU und GPU vereint
Wie die Fusion zu AMDs Zukunft wurde

Mit Lauchgemüse und Katzen-Kernen zu Playstation und Xbox: Wir blicken auf ein Jahrzehnt an Accelerated Processing Units (APUs) zurück.
Ein Bericht von Marc Sauter


      •  /