GPUs mit 128 GByte HBM2e
Eine flexible Nutzung der Prozessoren mit HBM und DDR5 in Kombination soll möglich sein. AMX-Erweiterungen sollen den Durchsatz bei AI-Berechnungen bei INT8 mit INT32-Accumulation-Operationen gegenüber AVX-512 um das Achtfache beschleunigen. Klimamodelle mit MPAS-A auf einem Xeon Max mit HBM sollen 2,4-mal schneller sein als AMDs Milan-X mit 3D V-Cache.
Die Intel Max Series Datacenter GPUs erscheinen in drei Formfaktoren. Die Max Series 1100 GPU ist eine Dual-Slot-Adapterkarte mit 56 Xe-Cores, 48 GByte HBM2e und PCI-Express-Anbindung, maximal 300 Watt Board-Power sind spezifiziert. Mehrere dieser Karten können per Xe-Link-Brücke miteinander verbunden werden, ähnlich wie andere Hersteller dies in der Vergangenheit gelöst haben.
Die Max Series 1350 GPU ist ein 450-Watt-Chip mit 112 Xe-Cores und 96 GByte HBM2e-Speicher. Das Topmodell ist die Max Series 1550 mit 128 Xe-Cores, 128 GByte HBM2e und 600 Watt Board-Power. Beide sind auf einem OAM-Modul verbaut. Die Aurora-Blades für den Aurora-Supercomputer haben je sechs dieser OAM-Module neben zwei Xeon-Max-CPUs verbaut. Die Blades sind wassergekühlt, um die hohe Leistung abführen zu können.
Start bereits im Januar
Neben einzelnen Modulen wird Intel das Data Center GPU Max Series Subsystem anbieten, das vier OAM-Module beinhaltet und per Xe Link angebunden wird. Sowohl die GPUs als auch die CPUs sollen mit Intels 2023 oneAPI optimal genutzt werden können. Die Schnittstelle soll es erleichtern, gemeinsamen Code für beide Architekturen zu entwickeln.
| Intel Ponte Vecchio | Nvidia H100 (SXM) | AMD Instinct MI250X | |
|---|---|---|---|
| GPU (µArch) | Xe HPC | GH100 (Hopper) | 2x Aldebaran (CDNA2) |
| Node | diverse (Intel+TSMC) | 4N EUV (TSMC) | N6 EUV (TSMC) |
| Transistoren | (?) | 80 Milliarden | 2x 29,1 Milliarden |
| ALUs | 16.384 (128 XeCs) | 15.872 (132 SMs) | 14.080 (220 CUs) |
| Speicher | 128 GByte HBM2e | 80 GByte HBM3 | 128 GByte HBM2e |
| Bandbreite | 3,2 TByte/s | 3,07 TByte/s | 3,28 TByte/s |
| FP64 | 52 Teraflops | 30 (60*) Teraflops | 47,9 (95,7***) Teraflops |
| FP32 | 52 Teraflops | 60 Teraflops | 47,9 (95,7***) Teraflops |
| TF32 | 419 Teraflops | 500 Teraflops | n.v. |
| BF16 | 839 Teraflops | 1000* (2.000**) Teraflops | 383 Teraops*** |
| FP16 | 839 Teraflops | 1000* (2.000**) Teraflops | 383 Teraops*** |
| INT8 | 1.678 Teraops | 2.000* (4.000**) Teraops | 383 Teraops*** |
| TDP | 550 Watt | 700 Watt | 560 Watt |
| P2P | (?) | 900 GByte/s (NV Link 4.0) | 800 GByte/s (8x IF Link) |
| PCIe | Gen5 | Gen5 | Gen4 |
| Formfaktor | OAM | SXM5 | OAM |
Auf dem Intel Supercomputing 2022 Event vom 13. bis 18. November in Texas möchte Intel die Produkte näher vorstellen, dazu werden auch über 40 Kundensysteme von 12 OEMs gezeigt, um einen guten Überblick über die echte Nutzung und Implementierung zu bekommen. Intel Max Series CPUs und GPUs sollen ab Januar 2023 offiziell in den Verkauf gehen. Erste Lieferungen an Kunden zur Evaluierung dürften bereits erfolgt sein.