AWS Reinvent: Neuer Nitro-Chip und Instanzen für HPC und AI vorgestellt
Amazon hat auf der AWS-Konferenz Reinvent Hard- und Software vorgestellt, die in neuen Instanzen zum Einsatz kommen – mit beachtlichen Leistungssteigerungen. Den Anfang macht ein neuer Nitro-Chip, die mittlerweile fünfte Generation. Nitro ist eine zentrale Komponente der E2-Instanzen, er führt den Hypervisor aus und bindet die Server ans Netzwerk an, übernimmt Teile der Paketverarbeitung und unterstützt Offloading von Verschlüsselung und Netzwerkspeicherfunktionalität.
Die fünfte Nitro-Generation kann 60 Prozent mehr Pakete pro Sekunde verarbeiten, zudem sinkt die Latenz um 30 Prozent, die Leistung pro Watt soll 40 Prozent über dem Vorgänger liegen. Profitieren sollen davon unter anderem Anwendungen aus dem Bereich des High Performance Computing (HPC), etwa gleitkommalastige Simulationen.
Für diese überarbeitete Amazon den selbst entwickelten ARM-Prozessor Graviton 3 . Die neue Variante Graviton 3E soll die Gleitkommarechenleistung steigern: Im Benchmark High Performance Linpack (HPL) kündigt Amazon 35 Prozent mehr Leistung an, die Molekulardynamiksimulation Gromacs soll um 12 Prozent zulegen.
Neben der neuen Hardware soll ein neues, Scalable Reliable Datagram (SRD) getauftes Netzwerkprotokoll für Leistungssteigerungen sorgen. SRD läuft ebenfalls auf dem Nitro-Chip und soll die Netzwerkstruktur von AWS besser ausnutzen. Hier entschied sich AWS gegen den gängigen Fat Tree(öffnet im neuen Fenster) , stattdessen orientiert man sich bei der Verbindung der Switches am Hypercube(öffnet im neuen Fenster) . Dabei führen von jedem Server mehrere Wege zum Ziel, die TCP allerdings nicht ausnutzen kann – mit SRD sollen durch Nutzung mehrerer paralleler Routen höhere Datenraten erreichbar sein.
Neue Instanzen für HPC und KI Training
Die neue Hardware soll in drei neuen E2-Instanzen zum Einsatz kommen. Als erste soll C7gn verfügbar sein, hier wird der neue Nitro-Chip mit den ebenfalls selbst entwickelten Graviton-3-Prozessoren verwendet. Zielgruppe sind Anwendungen mit hohen Anforderungen an den Netzwerkdurchsatz.
Wie der Name nahelegt, sind die HPC7g-Instanzen für HPC-Anwendungen ausgelegt, hier kommen Nitro v5 und Graviton 3E zum Einsatz. Zum Trainieren neuronaler Netze kommen als Trn1 bezeichnete Instanzen ins Angebot, in denen 16 der ebenfalls selbst entwickelten Trainium-Prozessoren arbeiten. Bei der Hardwareausstattung geht AWS mit 512 GByte RAM und 800 GBit/s Netzwerkbandbreite in die Vollen, um auch für sehr große Netze gerüstet zu sein.
Darüber hinaus soll SRD Elastic Block Storage (EBS) beschleunigen, die Worst-Case-Schreiblatenz soll um 90 Prozent geringer ausfallen, der Durchsatz sich vervierfachen. Profitieren werden davon allerdings erst ab 2023 angelegte io2-Speicher.
- Anzeige Hier geht es zu den konfigurierbaren Golem-PCs bei Systemtreff Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.