Original-URL des Artikels: https://www.golem.de/news/cloud-server-googles-zaius-plattform-setzt-auf-ibms-opencapi-und-power9-1610-123852.html    Veröffentlicht: 17.10.2016 10:20    Kurz-URL: https://glm.io/123852

Cloud-Server

Googles Zaius-Plattform setzt auf IBMs OpenCAPI und Power9

Komplett ohne Intels Xeons: Google arbeitet mit IBM zusammen, um seine Cloud-Server auszurüsten. Zaius ist Teil des Open Compute Projects, genauso wie die offene Verbindung OpenCAPI.

Google hat die Zaius-Plattform für seine Cloud-Server angekündigt, die gemeinsam mit Partnern wie IBM, Ingrasys (gehört zu Foxconn) und Rackspace entwickelt wurde. Sie entspricht den Spezifikationen des Open Compute Projects und passt ergo in OCP-Racks. Anders als die bisherige Barreleye-Plattform (Docx) mit Power8-Prozessoren, benannt nach einer Gattung von Tiefseefischen mit transparentem 'offenem' Kopf, setzt Zaius auf die neueren Power9-Chips. Doktor Zaius ist ein Orang-Utan, der im Buch Der Planet der Affen (1963) und darauf basierenden Filmen eine Rolle spielt. In der Tim-Burton-Version von 2001 ist Zaius der Vater von General Thade.

Die Zaius-Plattform besteht aus einem Dual-Sockel-Mainboard mit zwei Power9-Prozessoren in der Scale-Out-Variante. Die verwendet keine Memory-Buffer-Chips, sondern einzig acht DDR4-2400-Speicherkanäle pro Sockel. Das System wird von einer 48-Volt-Leitung mit Energie versorgt, die entspricht dem Open-Rack-2.0-Standard. Für Peripherie unterstützt die Zaius-Plattform unter anderem PCIe 4.0 und die neue OpenCAPI-Anbindung.

Erneut ohne Intel

Ausgeschrieben steht das für Coherent Accelerator Processor Interface, die technische Basis bildet IBMs CAPI 2.0, was zusammen mit dem Power9 vorgestellt wurde. Das OpenCAPI-Konsortium besteht bisher aus AMD, Dell-EMC, HPE, Google, IBM, Mellanox, Micron, Nvidia und Xilinx. Ziel ist ein offener Standard für eine Cache-kohärente Verbindung, der ähnlich wie Gen-Z diverse Beschleuniger wie FPGAs oder GPUs anbindet.

Nvidias proprietärer NV-Link wird unterstützt, entsprechende Openpower-Systeme sind geplant. Das vorgestellte OpenCAPI 3.0 soll bis zu 25 GBit pro Sekunde erreichen, zum kommenden OpenCAPI 4.0 nennt das Konsortium noch keine Zahlen. Zum Vergleich: Ein PCIe-3.0-x16-Slot schafft 16 GBit pro Sekunde, der neue PCIe-4.0-Standard doppelt so viele Daten pro Lane.

Intel ist weder bei Zaius, OpenCAPI noch bei Gen-Z beteiligt. Deren Omni-Path-Interconnect funktioniert nur mit Xeon-CPUs.  (ms)


Verwandte Artikel:
IBM AC922: In Deep Learning schlägt der Power9 die x86-Konkurrenz   
(11.12.2017, https://glm.io/131594 )
PCI-Sig: PCIe-Express 5.0 kommt 2019   
(05.09.2017, https://glm.io/129876 )
Urheberrecht: Bär lehnt Leistungsschutzrecht strikt ab   
(10.03.2018, https://glm.io/133260 )
IBM: Watson wird in CIMON ins All geschossen   
(26.02.2018, https://glm.io/133005 )
AMDs Embedded-Pläne: Ein bisschen Wunschdenken, ein bisschen Wirklichkeit   
(23.02.2018, https://glm.io/132925 )

© 1997–2019 Golem.de, https://www.golem.de/