Original-URL des Artikels: https://www.golem.de/news/tesla-p100-p40-microsoft-nutzt-pascal-gpus-fuer-azure-1705-127699.html    Veröffentlicht: 09.05.2017 08:41    Kurz-URL: https://glm.io/127699

Tesla P100 & P40

Microsoft nutzt Pascal-GPUs für Azure

Wer seine künstliche Intelligenz optimieren oder in Echtzeit Sprache übersetzen möchte, der hat bei Microsofts Azure-Cloud neue Tesla-Optionen mit Nvidias Pascal-Technik: Die P100 eignen sich für Training, die P40 auch für Inferencing.

Microsoft bietet für die Azure-Cloud-Plattform bald zwei neue Instanzen in verschiedenen Ausbaustufen an: Die virtuellen Maschinen der Reihe NC_v2 basieren auf bis zu vier Tesla P100 von Nvidia, die ND-Familie auf bis zu vier Tesla P40. Beide ersetzen die bisherige Serie NC_v1 mit bis zu vier Tesla K80, liefern aber weitaus mehr Flexibilität und Geschwindigkeit.

Die NC_v2-Instanzen eignen sich für HPC (High Performance Computing) wie seismische Berechnungen, DNA-Sequenzierung oder Effekte für Filme. Die Tesla P100 weisen hierzu rund 9,3 Teraflops pro Beschleuniger bei einfacher und 4,7 Teraflops bei doppelter Genauigkeit auf. Zwar unterstützen sie auch Half Precision (FP16) mit 18,6 Teraflops - das würden aber nur wenige Kunden nachfragen. Verglichen mit den bisherigen NC-Systemen mit Tesla K80 steigt die Leistung in HPC-Benchmarks teils um das Dreifache. Die NC_v2 sind mit bis zu 24 CPU-Kernen, 448 GByte und 3 TByte Flash-Speicher verfügbar.

Tesla P40 für Inferencing

Für das Training von künstlicher Intelligenz oder das Inferencing bei Deep Learning sind die ND-Instanzen mit Tesla P40 gedacht. Ihnen fehlt beschleunigtes FP16, dafür erreicht eine Karte bereits knapp 12 Teraflops bei Single Precision. Außerdem beherrschen sie bei INT8 die vierfache Geschwindigkeit, was sie für Inferencing interessant macht. FPGAs seien oft schneller, bisher bietet Microsoft die aber nicht in der Azure-Cloud an.

Bei Workloads mit Caffe oder dem Cognitive Toolkit (CNTK) seien vier Tesla P40 mehr als doppelt so flott wie vier Tesla K80. Bei Inferencing statt Training fällt der Leistungszuwachs noch drastischer aus: Microsoft spricht von Faktor 21, wenn das Tensor-RT-Framework und viele Bilder verwendet werden.

Die neuen Instanzen sollen als Vorschauversion in den kommenden Monaten verfügbar sein, interessierte Kunden können sich anmelden.  (ms)


Verwandte Artikel:
Xavier-Tegra: Nvidia entwickelt eigene TPU für autonome Autos   
(17.05.2017, https://glm.io/127854 )
Connect 2016: Microsoft setzt alles auf die Cloud   
(17.11.2016, https://glm.io/124537 )
Hardware-Umfrage: 85 Prozent der Steam-Spieler nutzen eine Geforce   
(05.03.2018, https://glm.io/133142 )
Eni HPC4: Italienischer Supercomputer weltweit einer der schnellsten   
(20.01.2018, https://glm.io/132270 )
P40 und P4: Nvidia veröffentlicht ungewöhnliche Tesla-Beschleuniger   
(15.09.2016, https://glm.io/123265 )

© 1997–2019 Golem.de, https://www.golem.de/