Original-URL des Artikels: https://www.golem.de/news/lake-crest-intels-terminator-chip-mit-terabyte-bandbreite-1702-125951.html    Veröffentlicht: 02.02.2017 10:37    Kurz-URL: https://glm.io/125951

Lake Crest

Intels Terminator-Chip mit Terabyte-Bandbreite

Auf dem ersten europäischen AI-Day in München hat Intel Details zu Lake Crest genannt. Der Beschleuniger für künstliche Intelligenz soll bei solchen Anwendungen auch Highend-GPUs schlagen. Dafür ist viel neue Technik nötig.

Interposer, HBM2, ein neuartiges Netz direkt im Chip: Intel steckt im Moment viel Knowhow in Lake Crest. Es ist der erste von Grund auf neu entwickelte Beschleuniger für künstliche Intelligenz (AI) des Unternehmens. Lake Crest hatte Intel auf seinem ersten AI-Day in San Francisco angekündigt, nun durfte sein Entwickler Naveen Rao in München erste Details zum Aufbau und zur Architektur verraten. Rao hatte nach zehn Jahren als Chipentwickler und einer darauf folgenden Promotion in Neurowissenschaften das Unternehmen Nervana gegründet, das Intel im August 2016 übernahm.

Intels Lake Crest erinnert an Camerons Terminator

Folglich ist Lake Crest die Hardware, auf der die von Nervana entwickelten neuronalen Netze laufen sollen. Bisher werden für solche Anwendungen meist FPGAs genutzt, auch solche von Intel - denn den FPGA-Hersteller Altera hatte Intel ebenfalls aufgekauft, und zwar noch vor Nervana. Der Vorteil der Hardware-Netze gegenüber den programmierbaren FPGAs soll vor allem darin liegen, dass sich ein Chip wie Lake Crest zur Laufzeit an den Code anpasst. Er lernt also auf Hardwareebene dazu und wird immer schneller.

Diesen lernenden Computer hatte James Cameron seinen Terminator im zweiten Teil der Filmserie bereits 1991 beschreiben lassen. Eine weitere Parallele zur Science-Fiction: Intel wählt als Symbolgrafik eine dem Terminator-Chip verblüffend ähnliche Darstellung mit Würfeln, die die Rechenknoten (Nodes) darstellen sollen, die an allen Innenseiten untereinander verbunden sind.

Diese Verbindung ist auch eine der größten Neuerungen von Lake Crest, denn die zwölf Rechenwerke sind direkt an alle anderen über bidirektionale Links mit 100 Gigabit pro Sekunde verbunden. Noch höher ist die Speicherbandbreite, denn mit vier 8-GByte-Modulen aus je einem HBM2-Speicherstapel ist insgesamt ein Terabyte pro Sekunde möglich. Folglich kommt Lake Crest auf 32 GByte eigenen Speicher, den sich die Recheneinheiten teilen müssen.



Diese Rechenwerke bezeichnet Intel nicht als Cores, sondern als Processing Cluster, zwölf davon sind vorhanden. Der Begriff Cluster deutet darauf hin, dass wie bei einer GPU einer der Cluster aus mehreren kleineren Einheiten besteht. Im Fall von GPUs sind das Arithmetik-Einheiten (ALUs), die Zahl dieser wiederum wird bei Grafikkarten als Marketing-Argument oft Shader genannt. Den Rekord hält hier bisher AMD mit 4.096 ALUs auf dem Fiji-Chip der Radeon Fury X.

Vier Stacks schaffen 1 TByte pro Sekunde

Wie weit die Cluster bei Intel wiederum unterteilt sind, hat das Unternehmen noch nicht angegeben. Es ist also möglich, dass ein Processing Cluster nicht nur aus einer Ansammlung von ALUs oder anderen Rechenwerken besteht, sondern nur die übergeordnete Einheit für ein weiter verschachteltes System ist. Solche Angaben sind erst zum Marktstart in der zweiten Hälfte des Jahres 2017 zu erwarten, wenn Lake Crest erscheinen soll. Noch davor, und zwar bis zur Mitte dieses Jahres, sollen Projektkunden erste Muster des Chips erhalten. Er wird sich dann auf einer PCIe-3.0-Karte befinden, denn das Interface dafür ist im Blockdiagramm genannt.

Ebenso klar ist, dass Intel wie bei manchen modernen Grafikkarten den Prozessor selbst zusammen mit dem HBM2-Stapeln auf einen Interposer packt. Diese Mini-Platinen sind derzeit der einzige Weg, die Signalwege kurz zu halten und die Takte zwischen den Modulen hoch. Samsung und SK Hynix haben für ihre HBM2-Stapel bis zu 2 GHz Takt genannt. Das ergibt 256 GByte pro Sekunde für jedes Modul, und damit für die vier Stapel von Lake Crest das Terabyte pro Sekunde. 8Hi-Stacks mit 8 GByte listet bisher aber noch keiner der beiden Hersteller.

Nicht nur die Hardware soll die schnelle Verteilung von Rechenoperationen beschleunigen, sondern auch die Benutzung neuer Datentypen. Intel spricht statt von Floating Point (FLOP) von Flex Point. Das deutet an, dass vielleicht die Genauigkeit der Berechnung sich flexibel skalieren lässt, und zwar ohne die Berechnung neu zu beginnen. Was hinter Flex Point genau steckt, hat sich Intel bis zum Marktstart aufgespart. Raveen Nao gab aber an, dass sich durch die Technik die Parallelität verzehnfachen ließe.

Der Ingenieur und Neuro-Doktor sagte nach seinem Vortrag auf Nachfragen, dass Lake Crest der "most dense chip" werden solle. Ob diese Packdichte sich auf die Zahl der Transistoren auf einem Die oder auf die Rechenleistung pro Die bezieht, ließ Nao offen. Ebenso erwähnte er nicht, dass Intel vorhabe, so viel Bandbreite und Rechenleistung zu einer Grafikkarte zu machen.

Das sollte auch einmal Larrabee werden, der sich inzwischen aber mit den Knights Landing als Beschleuniger für Supercomputer etabliert hat. Bei Lake Crest will Intel dem bisherigen Stand zufolge nicht den Universalbeschleuniger bauen, sondern eine dedizierte Lösung für künstliche Intelligenz.  (nie)


Verwandte Artikel:
Nervana Neural Network Processor: Intels KI-Chip erscheint Ende 2017   
(18.10.2017, https://glm.io/130692 )
Optane SSD 800p: Intel bringt 3D Xpoint in die Mittelklasse   
(08.03.2018, https://glm.io/133229 )
Wintersport: Roboter Curly spielt Curling   
(08.03.2018, https://glm.io/133219 )
Microsoft: KI-Framework kommt auf Windows-10-Endgeräte   
(08.03.2018, https://glm.io/133217 )
Sicherheitslücke: Spectre-Angriff kann Intel SGX überwinden   
(07.03.2018, https://glm.io/133209 )

© 1997–2019 Golem.de, https://www.golem.de/