• IT-Karriere:
  • Services:

AWS P3: Amazon packt Nvidias Volta in die Cloud

Wer Machine Learning oder HPC mit den Amazon Web Services nutzen will, bekommt mit den P3-Instanzen drastisch mehr Leistung: Amazon hat diese mit Nvidias Tesla-V100-Beschleunigern für bis zu einem Petaflop an FP16-Geschwindigkeit ausgestattet.

Artikel veröffentlicht am ,
Tesla V100 im SXM2-Formfaktor
Tesla V100 im SXM2-Formfaktor (Bild: Marc Sauter/Golem.de)

Amazon hat eine Erweiterung für die Elastic Compute Cloud (EC2) der Amazon Web Services vorgestellt: Die P3-Instanzen sind für Nutzer gedacht, die auf höchstmögliche Leistung zugreifen möchten. Amazon zufolge sind sie unter anderem für Machine Learning - Training wie Inferencing - oder allgemein für High Performance Computing (HPC) ausgelegt. Verglichen mit den bisherigen P2-Instanzen explodiert die verfügbare Rechenkapazität, da Amazon von Kepler-basierten Nvidia-Beschleunigern auf Volta-Modelle wechselt.

Stellenmarkt
  1. KDO Service GmbH, Oldenburg
  2. MULTIVAC Sepp Haggenmüller SE & Co. KG, Wolfertschwenden

Bei den P2-Instanzen von vergangenem Jahr kommen noch alte Tesla K80 auf Dual-Sockel-Boards mit zwei Xeon E5-2686 v4 (Broadwell-EP) mit 16C/32T und bis zu 732 GByte DDR4-Arbeitsspeicher zum Einsatz. Die neuen P3-Instanzen hingegen sind mit Tesla V100 ausgestattet, wenngleich weiterhin mit Xeon E5 und maximal 488 GByte RAM. Hintergrund ist der SXM2-Formfaktor der Tesla-Module, die mehr Platz benötigen als PCIe-Karten. Deshalb gibt es zwar nur 8 statt 16 davon, dafür können die Tesla V100 per proprietärer NV-Link-2.0-Verbindung besonders schnell untereinander kommunizieren.

Die Rechenleistung bei doppelter Genauigkeit (FP64) steigt im Vollausbau von 23 auf 62 Teraflops und bei einfacher Genauigkeit (FP32) von 70 auf 125 Teraflops. Die neuen P3-Instanzen beherrschen aufgrund der Tesla V100 zudem sogenannte Mixed Precision (FP16) in Form ihrer speziellen Tensor-Cores, weshalb hier 960 Teraflops per Matrix-Multiplikation erreicht werden.

Abseits der P3-Instanzen bietet Amazon auch F1-Instanzen mit FPGAs an, die sich für Bild- und Videobearbeitung oder Deep Learning eignen.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Anzeige
Hardware-Angebote
  1. (reduzierte Überstände, Restposten & Co.)

Folgen Sie uns
       


Erörterung zu Tesla-Fabrik: Viel Ärger, wenig Hoffnung
Erörterung zu Tesla-Fabrik
Viel Ärger, wenig Hoffnung

Lässt sich der Bau der Tesla-Fabrik in Grünheide noch stoppen? In einer öffentlichen Erörterung äußerten Anwohner und Umweltschützer ihren Unmut.
Ein Bericht von Friedhelm Greis

  1. Tesla-Fabrik in Grünheide Wasserverband gibt grünes Licht für Giga Berlin
  2. Grünheide Musk besucht erstmals Baustelle für Gigafactory
  3. Gigafactory Musk auf Deutschlandtour in Berlin und Tübingen

Java 15: Sealed Classes - Code-Smell oder moderne Erweiterung?
Java 15
Sealed Classes - Code-Smell oder moderne Erweiterung?

Was bringt das Preview Feature aus Java 15, wie wird es benutzt und bricht das nicht das Prinzip der Kapselung?
Eine Analyse von Boris Mayer

  1. Java JDK 15 geht mit neuen Features in die General Availability
  2. Java Nicht die Bohne veraltet
  3. JDK Oracle will "Schmerzen" von Java beheben

Beoplay H95 im Test: Toller Klang, aber für 800 Euro zu schwache ANC-Leistung
Beoplay H95 im Test
Toller Klang, aber für 800 Euro zu schwache ANC-Leistung

Der Beoplay H95 ist ein ANC-Kopfhörer mit einem tollen Klang. Aber wer dafür viel Geld ausgibt, muss sich mit einigen Kompromissen abfinden.
Ein Test von Ingo Pakalski


      •  /