• IT-Karriere:
  • Services:

Spring Crest: Intels KI-Chip misst über 700 mm²

Mit dem Spring Crest genannten Design plant Intel einen eigenen Beschleuniger für künstliche Intelligenz. Der Chip ist sehr groß und für das Training neuronaler Netze mithilfe von Matrix-Multiplikationen ausgelegt, hinzu kommen 32 GByte Stapelspeicher für viel Bandbreite.

Artikel veröffentlicht am ,
NNP-L1000 alias Spring Crest als Mezzanine-Modul
NNP-L1000 alias Spring Crest als Mezzanine-Modul (Bild: Marc Sauter/Golem.de)

Intel hat weitere Details zu Spring Crest alias NNP-L1000 veröffentlicht, das berichtet Wikichip von der alljährlichen Linley Conference. Die Abkürzung steht für Neural Network Processor (NNP) und ist ein Chip von Nervana, das 2016 von Intel übernommen wurde. Die L1000-Variante ist ein fest verdrahtetes Design (ASIC) für das Training von neuronalen Netzen und soll 2019 verfügbar sein.

Stellenmarkt
  1. IT-Systemhaus der Bundesagentur für Arbeit, Nürnberg
  2. HERMA GmbH, Filderstadt

Spring Crest wird nicht von Intel selbst gefertigt, sondern von TSMC im 16-nm-Verfahren. Mit geschätzt 741 mm² Die-Size ist der Chip sehr groß, nur wenige andere wie Nvidias GV100 mit 850 mm² weisen noch mehr Fläche auf. Der GV100 in Form der Tesla V100 wird in 12 nm, einem optimierten 16 nm, produziert und ist ebenfalls ein Beschleuniger für das Training von neuronalen Netzen.

Der NNP-L1000 besteht intern aus vier sogenannten Pods zu je sechs Compute Clustern, welche Einheiten zur Berechnung von Matrix-Multiplikationen und viel SRAM als lokalen Speicher beinhalten. Die einzelnen Cluster kommunizieren durch ein Mesh, zudem sind die Pods jeweils an 8 GByte HBM-Speicher (High Bandwidth Memory) angeschlossen. Das Design ist also auf einen hohen Durchsatz ausgelegt, zudem soll die Auslastung besser ausfallen als bei Nvidias Tesla V100. Der NNP-L1000 unterstützt überdies das bfloat16-Format für Tensorflow.

Intel wird Spring Crest als PCIe-Karte und in Mezzanine-Bauweise anbieten. Letzteres ist ein Open Compute Platform Accelerator Module (OAM) samt Kühlkörper. Für Partner sind Platinen mit acht NNP-L1000 als Mezzanine-Module vorgesehen, wovon mehrere in einem Rack stecken können.

Parallel zu Spring Crest entwickelt Intel noch Spring Hill alias NNP-I, ein M.2-Kärtchen mit einem Chip für Inferencing, also zum Anwenden bereits trainierter neuronaler Netze. Der NNP-I wird in Intels eigenem 10-nm-Verfahren gefertigt.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Anzeige
Hardware-Angebote
  1. (u. a. Sony DualSense Wireless-Controller für 67,89€)
  2. (u. a. Sapphire Radeon RX 6800 OC NITRO+ Gaming 16GB für 849€)

ms (Golem.de) 15. Apr 2019

Prototypen gibt's bereits.

Anonymer Nutzer 15. Apr 2019

ja das wäre doch letztendlich interessant für den Anwender. Aber läuft denn TensorFlow...


Folgen Sie uns
       


Sony Playstation 5 - Fazit

Im Video zum Test der Playstation 5 zeigt Golem.de die Hardware und das Dashboard der Konsole von Sony.

Sony Playstation 5 - Fazit Video aufrufen
    •  /