CS-Storm 500GT/500NX: Crays Cluster nutzen FPGAs und Teslas

Gedacht zur Entwicklung von künstlicher Intelligenz: Die beiden CS-Storm-Cluster von Cray basieren auf Intels aktuellen Xeons und Nvidias Tesla P100 mit Pascal-Technik. Kunden haben Zugriff auf Broadwell- oder Skylake-CPUs und auf FPGAs.

Artikel veröffentlicht am ,
CS-Storm 500GT/500NX
CS-Storm 500GT/500NX (Bild: Cray)

Cray hat zwei sogenannte Supercomputer-Cluster vorgestellt. Der CS-Storm 500GT und der CS-Storm 500NX sind unterschiedlich aufgebaut, die Racks sind jedoch beide für Berechnungen ausgelegt, um eine künstliche Intelligenz zu entwickeln. Die verbaute Hardware und der mitgelieferte Software-Stack eignen sich für Algorithmen für Deep Learning und Machine Learning.

Der CS-Storm 500NX basiert auf Blades mit zwei Broadwell-EP-basierten Xeon E5-2600 v4 und kann mit bis zu acht Tesla P100 ausgestattet werden. Dabei handelt es sich allerdings nicht um PCIe-Steckkarten, sondern um SXM2-Module mit Mezzanine-Anschlüssen. Es ist daher anzunehmen, dass eine Aufrüstung auf die neueren Tesla V100 möglich sein wird. Die acht Module kommunizieren durch Nvidias NV-Link, als Interconnects können Infiniband oder Omni Path verwendet werden. Storage-seitig sind bis zu zwölf 2,5-Zoll-SSDs vorgesehen, vier davon optional per NVMe. Die Hardware befindet sich in einem 4U-Blade.

Tesla P40 oder FPGAs für mehr Flexibiliät

Beim CS-Storm 500GT handelt es sich um eine weniger konventionelle Konfiguration. Cray verwendet zwei der neuen Skylake-SP-Xeons und kombiniert diese mit bis zu zehn Beschleunigern. Das können Tesla P100, wenn auch in der PCIe-Variante, oder Tesla P40 oder FPGAs von Nallatech sein. Letztere gibt es zum Beispiel als 510T mit zwei Arria 10 1150 GX und 2,8 Teraflops. Hinzu kommen bis zu 16 Drives in einem 3U- oder 4U-Blade.

Während sich der CS-Storm 500NX neben Training dank hoher FP64-Leistung auch für HPC eignet, zielt der CS-Storm 500GT eher auf Inferencing (FP16 oder INT8) ab. Cray spricht von bis zu 2,62 Teraops und bis zu 658 Teraflops (FP64) pro Rack. Die rechnerische Basis sind offensichtlich Tesla P100.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Aktuell auf der Startseite von Golem.de
Entlassungen bei Disney
Kein Prime-Abo für Disney+ und kein Metaverse mehr geplant

Intern wurden bei Disney gleich zwei Projekte eingestellt. Das führt zu Entlassungen von etwa 50 Personen.

Entlassungen bei Disney: Kein Prime-Abo für Disney+ und kein Metaverse mehr geplant
Artikel
  1. 470 bis 694 MHz: Umwidmung der DVB-T2-Frequenz für Militär brächte Funkchaos
    470 bis 694 MHz
    Umwidmung der DVB-T2-Frequenz für Militär brächte Funkchaos

    Wenn nur ein Teil der DVB-T2-Frequenzen an Blaulichtorganisationen und das Militär ginge, hätte das weitreichende Folgen auch für den Mobilfunk.

  2. Python für Data Engineering und Data Science
     
    Python für Data Engineering und Data Science

    Python ist die populärste Sprache im Bereich Data Science und Data Engineering. Die Golem Karrierewelt bietet Kurse, die den Einstieg erleichtern.
    Sponsored Post von Golem Karrierewelt

  3. Glasfasernetze: Warum Open Access viel zu selten gemacht wird
    Glasfasernetze
    Warum Open Access viel zu selten gemacht wird

    Die Telekom betont den Willen zu Kooperationen im Festnetz durch Open Access. Laut alternativen Betreibern ist das nicht ehrlich. Doch so einfach ist es nicht.
    Ein Bericht von Achim Sawall

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Große Amazon Rabatt-Aktion • MindStar: 6 Grafikkarten günstiger • Fernseher Samsung & Co. bis -43% • Monitore bis -50% • Bosch Prof. bis -59% • Windows Week • Logitech bis -49% • Radeon 7900 XTX 24 GB günstig wie nie • Alexa-Sale bei Amazon • 3 Spiele kaufen, 2 zahlen [Werbung]
    •  /