Original-URL des Artikels: https://www.golem.de/news/lake-crest-intel-arbeitet-an-eigenem-chip-fuer-neuronale-netzwerke-1611-124553.html    Veröffentlicht: 17.11.2016 22:55    Kurz-URL: https://glm.io/124553

Lake Crest

Intel plant eigenen Chip für neuronale Netzwerke

Neue Hardware für Deep Learning: Die Intel-Tochter Nervana erwartet erste Muster von Lake Crest im kommenden Jahr, als Knights Crest sollen die Chips auch mit Xeons gekoppelt werden. Die neuen Skylake-EP-Server-CPUs liefert Intel derweil überraschend aus, verärgert aber viele seiner Partner massiv.

Intel hat auf dem AI-Day in San Francisco Ankündigungen zu Deep Learning für künstliche Intelligenz via neuronalen Netzen gemacht. Mittelfristig könnte aber eine vermeintliche Randnotiz die wichtigere Neuigkeit sein: Intel sagte, dass Server mit Skylake-EP-CPUs an ausgewählte Partner verschickt worden sein. Die Prozessoren mit bis zu 28 Kernen erscheinen eigentlich erst Mitte 2017, was bedeutet, dass alle, die keine Chips erhalten, einen Nachteil haben.

Semi-Accurate berichtet, Facebook und Google seien die beiden ausgewählten Partner. Cloud-Anbieter wie Amazon, Alibaba oder Baidu und Serverhersteller wie Dell, HP Enterprise oder Lenovo müssen über ein halbes Jahr warten und bis dahin mit der Broadwell-EP genannten CPU-Generation auskommen. Abgesehen von der geringeren Geschwindigkeit ist es vor allem die Effizienz im Betrieb, die Facebook und Google über Monate hinweg geringere Betriebskosten verglichen mit der Konkurrenz verursacht. Die TCO (Total Cost of Ownership) ist die wichtigste Kenngröße im Server-Markt.

Basierend auf der Arbeit von Nervana, einem AI-Startup, hat Intel den Lake Crest angekündigt. Das ist der Codename für einen ASIC, der speziell für die Berechnung von neuronalen Netzen ausgelegt sei, und mit 32 GByte HBM2-Stapelspeicher ausgestattet ist. Intel erwartet Muster im ersten Halbjahr 2017, ausgewählte Partner sollen Lake Crest im zweiten Halbjahr erhalten. Obendrein plant Intel noch Knights Crest: Hier wird Lake Crest mit einer Xeon-CPU gekoppelt, offenbar verbindet Intel beide Chips auf einem Package. Eine ähnliche Vorgehensweise findet sich bereits bei einem Xeon, der mit einem Arria-FPGA auf einem Träger per EMIB verknüpft ist.

Für Inferencing - den Schritt nach dem Trainieren der Algorithmen - bestätigte Intel erneut, dass 2017 die nächste Xeon-Phi-Generation alias Knights Mill erscheinen werde. Die erreicht anders als Knights Landing bei halber Genauigkeit (Half Precison, FP16) die vierfache Geschwindigkeit.  (ms)


Verwandte Artikel:
Nervana Neural Network Processor: Intels KI-Chip erscheint Ende 2017   
(18.10.2017, https://glm.io/130692 )
AI-Beschleuniger: Intels Spring Crest erscheint Ende 2018   
(11.07.2017, https://glm.io/128801 )
Compute Engine: Google-Cloud bietet CPU-Plattformwahl und Skylake-Xeons   
(01.06.2017, https://glm.io/128160 )
Wintersport: Roboter Curly spielt Curling   
(08.03.2018, https://glm.io/133219 )
Optane SSD 800p: Intel bringt 3D Xpoint in die Mittelklasse   
(08.03.2018, https://glm.io/133229 )

© 1997–2019 Golem.de, https://www.golem.de/