Graviton: Amazon hat Instanzen mit eigenen ARM-Prozessoren
Nach jahrelanger Entwicklung bietet Amazon neue günstige Cloud-Instanzen an, die auf selbst designten ARM-64-Bit-Chips basieren. Die zu mietende Rechenleistung kostet weniger als die von Intel-Prozessoren, überdies gibt es mittlerweile Instanzen mit AMDs Epyc-CPUs.
Amazon hat die EC2 A1 genannten Instanzen für die AWS-Cloud mit selbst entwickelten ARM-Prozessoren vorgestellt. Der Serverbetreiber bewirbt diese primär mit den geringeren Kosten, die für Kunden entstehen, wenn sie die Instanz mieten. Die Graviton-CPUs basieren auf der Neoverse/Cosmos-Plattform, die Amazon entworfen hat - genauer Annapurna, das 2015 übernommen wurde.
Zu den technischen Details der Graviton hat sich Amazon nicht geäußert, Analysen verraten aber ein paar wenige Informationen: Die a1.4xlarge-Variante der AC2-A1-Instanz hat 16 CPU-Kerne, wobei diese sich aus vier Quadcore-Clustern mit 2,3 GHz zusammensetzen. Der L1D fasst 32 KByte, der L1I hat 48 KByte und der gemeinsame L2-Puffer kommt auf 2 MByte; einen L3 gibt es nicht. Offenbar handelt es sich um ein Custom-Design im 16-nm-Node basierend auf ARMs Cortex-A72.
Die Leistung der a1.4xlarge-Instanz liegt grob auf dem Niveau eines c5.4xlarge-Pendants mit ebenfalls 16 CPU-Kernen basierend auf Xeon Platinum, zumindest bei Gleitkomma-Berechnungen. Dabei ist die EC2 A1 mit ARM-Chips deutlich günstiger pro Stunde, es werden nur 46 US-Cent statt 77 US-Cent fällig. Dafür skalieren die Xeon SP deutlich weiter, AWS bietet hier auch die c5d.18xlarge-Instanz mit 72 Cores an.
Seit einigen Wochen gibt es außerdem auch eine x86-Alternative zu den Intel-Chips: Die M5a- und die R5-Instanzen basieren auf AMDs Epyc-CPUs. Hier reichen die Optionen bis hin zu m5a.24xlarge mit 96 Kernen und 384 GByte Arbeitsspeicher sowie bis hin zur r5d.24xlarge mit gleicher Core-Zahl, aber 768 GByte. Mit 4,61 US-Dollar pro Stunde kostet die m5a.24xlarge weniger als die m5.24xlarge mit 5,14 US-Dollar, wobei die Intel-Variante durch AVX-512 gewisse Vorteile hat.
Neben Graviton hat Amazon noch Inferentia kurz benannt, einen für Inferencing gedachten Chip, der wenig kosten und mit unter anderem Pytorch sowie Tensorflow zusammenarbeiten soll.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed









Dachte da läuft mehr, wegen des Compability Layer. Hatte bisher nur Office 2010 auf nem...