Original-URL des Artikels: https://www.golem.de/news/ai-bridging-cloud-infrastructure-japan-baut-drittschnellsten-supercomputer-1710-130566.html    Veröffentlicht: 12.10.2017 07:33    Kurz-URL: https://glm.io/130566

AI Bridging Cloud Infrastructure

Japan baut drittschnellsten Supercomputer

Einer der stärksten Supercomputer entsteht in Tokio: Das System wird von Fujitsu errichtet und nutzt Volta-Beschleuniger von Nvidia sowie Skylake-SP-Xeons von Intel. Die Rechenleistung soll für die Erforschung von künstlicher Intelligenz eingesetzt werden.

Der japanische Serverhersteller Fujitsu wird den AI Bridging Cloud Infrastructure (ABCI) genannten Supercomputer für die Universität Tokio bauen. Den Auftrag dazu erteilte das National Institute of Advanced Industrial Science and Technology (AIST), das System soll ab April 2018 in Betrieb sein. Angekündigt wurde der ABCI-Supercomputer im November 2016.

Laut Fujitsu erreicht er eine theoretische Rechenleistung von 37 Petaflops bei doppelter Genauigkeit (Double Precision, FP64). Damit wäre der Rechner nach den beiden chinesischen Supercomputern, dem Sunway Taihu Light mit 125 Petaflops und dem Tianhe-2A mit derzeit 55 und künftig 95 Petaflops, das weltweit drittschnellste System. Der AI Bridging Cloud Infrastructure besteht aus 1.088 verknüpften Nodes, Fujitsu verbaut dazu die eigenen Primergy CX2570 M4 genannten Module in Primergy-CX400-Servern.

Intel- und Nvidia-Hardware

In jedem Node stecken zwei x86-Prozessoren aus Intels aktueller Xeon-Gold-Serie alias Skylake-SP und vier Tesla V100 von Nvidia in der PCIe-Variante. Als Speicher werden Intels DC P4600, also NVMe-SSDs mit NAND-Flash, eingesetzt. Da die Volta-Beschleuniger bei 16-bittigem Float eine viel höhere Rechenleistung erreichen als bei FP32 (einfache Genauigkeit oder Single Precision), liegt die für künstliche Intelligenz relevante Geschwindigkeit bei 550 Petaflops.

Der Trick der Tesla V100 sind die im Volta-GV100-Chip vorhandenen Tensor-Cores, die 4x4-Matrizen per FMA berechnen. Bei 672 solcher Kerne pro Karte macht das 120 Teraflops je Tesla und somit 522 Petaflops für die 4.352 GPUs insgesamt. Die restliche Rechenleistung stammt von den Xeon-Prozessoren, ihr Anteil an der Gesamtkapazität ist allerdings gering.

Der Post-K-Supercomputer kommt

Neben dem ABCI-Supercomputer plant Japan noch ein System namens Post-K, das von speziellen ARM-basierten Prozessoren angetrieben wird, die Fujitsu entwickelt. Mit Post-K ist ein Supercomputer gemeint, der auf den ebenfalls von Fujitsu stammenden K-Computer von 2011 folgt. Bereits fertig ist das derzeit flotteste japanische System namens Oakforest-PACS des Joint Center for Advanced High Performance Computing in Tokio. Es verwendet Intel-CPUs und Beschleuniger vom Typ Xeon Phi 7250 (Knights Landing).  (ms)


Verwandte Artikel:
ABCI: Japan plant 130-Petaflops-Supercomputer für 2017   
(26.11.2016, https://glm.io/124717 )
Marenostrum 4: Spanischer Supercomputer mit ARM, IBM und x86 plus GPUs   
(01.12.2016, https://glm.io/124799 )
Scalable Vector Extension: Die Basis für kommende ARM-Supercomputer ist gelegt   
(23.08.2016, https://glm.io/122839 )
Supercomputer: China und Japan setzen auf ARM-Kerne für kommende Systeme   
(24.06.2016, https://glm.io/121731 )
Top 500: Schnellster Supercomputer erreicht 10,5 Petaflops   
(15.11.2011, https://glm.io/87756 )

© 1997–2019 Golem.de, https://www.golem.de/