Original-URL des Artikels: https://www.golem.de/news/versal-fpgas-xilinx-macht-nvidia-das-ai-geschaeft-streitig-1810-136896.html    Veröffentlicht: 02.10.2018 18:00    Kurz-URL: https://glm.io/136896

Versal-FPGAs

Xilinx macht Nvidia das AI-Geschäft streitig

Mit den Versal genannten FPGAs stellt Xilinx eine Chipfamilie vor, die bei künstlicher Intelligenz durch eine höhere Inferencing-Leistung und Effizienz besser aufgestellt sein soll als Nvidia. Dieser Anspruch gilt für Datacenter und Edge-Geräte, denn gerade beim 5G-Mobilfunk wird AI wichtig.

Xilinx hat die Versal-FPGAs vorgestellt, eine neue Reihe von Chips mit programmierbaren Schaltungen und zusätzlichen Beschleunigern. Der Fokus der verschiedenen FPGAs liegt unter anderem auf künstlicher Intelligenz im Datacenter und bei Edge-Geräten, weshalb Xilinx mit den Versal eine spannende Alternative zu Nvidias Teslas und DLA im Angebot haben dürfe.

Alle Versal sind Teil von Project Everest, das Xilinx als ACAP bezeichnet. Das steht für Adaptive Compute Acceleration Platform, da die Chips neben den klassischen programmierbaren Logigblöcken auch diverse CPU-Kerne sowie Beschleuniger für heterogene Berechnungen umfassen. Das Design integriert unter anderem zwei Cortex-A72 für etwa ein Betriebssystem und zwei Cortex-R5 für Automotive-Anwendungen, hinzu kommen DSPs für Gleitkomma-Operationen und Blöcke für künstliche Intelligenz, die für Signalverarbeitung gedacht sind und optional mit Integer-Formaten arbeiten. Xilinx zufolge unterstützen die Gatter eine neue Speicherhierarchie und seien um den Faktor acht schneller reprogrammierbar als ihre Zynq-Vorgänger.

Mit im Design stecken diverse Controller für ein bis zu 384 Bit breites Interface mit DDR4-3200 oder LPDDR4-4266 oder für High Bandwidth Memory v2. Was davon zum Einsatz kommt, hängt von den Workloads und dem Marktsegment ab. Weiterhin gibt es gleich 16 PCIe-Gen4-Lanes, 100G-Ethernet, mehrere Crypto-Engines für etwa AES, allerhand Transceiver und RF-Frontends, diverse I/O-Anbindungen für unter anderem NAND-Flash sowie ein Fabric, das die Funktionsblöcke verbindet, plus den CCIX für externe Verbindungen. Die AI-Engine besteht aus mit über 1 GHz taktenden VLIW-Einheiten, welche bis zu 133 Tera-Ops bei INT8-Genauigkeit oder 33 Teraflops mit FP16-Präzision erreichen sollen. Xilinx sieht die mit 7 nm produzierten Designs hinsichtlich der Performance weit vor Nvidias Tesla V100, besonders bei latenzkritischem Inferencing, und erwartet eine drastisch höhere Effizienz verglichen mit den neuen Tesla T4 von Nvidia.

Vorerst - genauer im zweiten Halbjahr 2019 - wird Xilinx die Versal-PFGA als Prime Series für beispielsweise Radar Beamforming wie 5G oder für Network Attached Acceleration veröffentlichen, zudem gewährte der Hersteller einen Einblick in die AI Core Series für Inferencing wie Klassifizierung oder 5G Wireless Compute, sprich Signal Processing. 2020 folgen die Premium Series und die AI Edge Series sowie die AI RF Serie, irgendwann 2021 erwartet Xilinx die Modelle mit HBM v2.

Die monolithischen Chips oder als MCM ausgelegten Designs sollen von 5 Watt bis hin zu 150 Watt skalieren und Nvidia in Datacentern und bei Edge-Geräten kräftig Konkurrenz machen. Da die ersten Designs aber für das zweite Halbjahr 2019 erwartet werden, könnte Nvidia bis dahin mit 7-nm-GPUs vorgelegt haben.

Offenlegung: Golem.de hat auf Einladung von Xilinx am XDF in San Jose teilgenommen, die Reisekosten wurden zur Gänze von Xilinx bezahlt. Unsere Berichterstattung ist davon nicht beeinflusst und bleibt gewohnt neutral und kritisch. Der Artikel ist, wie alle anderen auf unserem Portal, unabhängig verfasst und unterliegt keinerlei Vorgaben seitens Dritter.  (ms)


Verwandte Artikel:
Xilinx übernimmt DeePhi Tech: Weltgrößter FPGA-Hersteller kauft China-Startup   
(20.07.2018, https://glm.io/135585 )
Project Everest: Xilinx bringt ersten FPGA mit 7-nm-Technik   
(19.03.2018, https://glm.io/133388 )
Auftragsfertiger: TSMCs 7-nm-Node soll schon 40 Kunden haben   
(15.03.2018, https://glm.io/133351 )
Amazon Web Services: Auch Amazon setzt auf FPGAs in der Cloud   
(02.12.2016, https://glm.io/124833 )
CCIX: Ein Interconnect für alle   
(25.05.2016, https://glm.io/121101 )

© 1997–2019 Golem.de, https://www.golem.de/