Graviton: Amazon hat Instanzen mit eigenen ARM-Prozessoren
Amazon hat die EC2 A1(öffnet im neuen Fenster) genannten Instanzen für die AWS-Cloud mit selbst entwickelten ARM-Prozessoren vorgestellt. Der Serverbetreiber bewirbt diese primär mit den geringeren Kosten, die für Kunden entstehen, wenn sie die Instanz mieten. Die Graviton-CPUs basieren auf der Neoverse/Cosmos -Plattform, die Amazon entworfen hat – genauer Annapurna, das 2015 übernommen wurde.
Zu den technischen Details der Graviton hat sich Amazon nicht geäußert, Analysen(öffnet im neuen Fenster) verraten aber ein paar wenige Informationen: Die a1.4xlarge-Variante der AC2-A1-Instanz hat 16 CPU-Kerne, wobei diese sich aus vier Quadcore-Clustern mit 2,3 GHz zusammensetzen. Der L1D fasst 32 KByte, der L1I hat 48 KByte und der gemeinsame L2-Puffer kommt auf 2 MByte; einen L3 gibt es nicht. Offenbar handelt es sich um ein Custom-Design im 16-nm-Node basierend auf ARMs Cortex-A72.
Die Leistung der a1.4xlarge-Instanz liegt grob auf dem Niveau eines c5.4xlarge(öffnet im neuen Fenster) -Pendants mit ebenfalls 16 CPU-Kernen basierend auf Xeon Platinum, zumindest bei Gleitkomma-Berechnungen. Dabei ist die EC2 A1 mit ARM-Chips deutlich günstiger pro Stunde, es werden nur 46 US-Cent statt 77 US-Cent fällig. Dafür skalieren die Xeon SP deutlich weiter, AWS bietet hier auch die c5d.18xlarge-Instanz mit 72 Cores an.
Seit einigen Wochen gibt es außerdem auch eine x86-Alternative zu den Intel-Chips: Die M5a- und die R5-Instanzen basieren auf AMDs Epyc-CPUs. Hier reichen die Optionen bis hin zu m5a.24xlarge mit 96 Kernen und 384 GByte Arbeitsspeicher sowie bis hin zur r5d.24xlarge mit gleicher Core-Zahl, aber 768 GByte. Mit 4,61 US-Dollar pro Stunde kostet die m5a.24xlarge weniger als die m5.24xlarge mit 5,14 US-Dollar, wobei die Intel-Variante durch AVX-512 gewisse Vorteile hat.
Neben Graviton hat Amazon noch Inferentia kurz benannt, einen für Inferencing gedachten Chip, der wenig kosten und mit unter anderem Pytorch sowie Tensorflow zusammenarbeiten soll.