Amazon Web Services: GPU-Instanzen für EC2 und Multipart-Uploads für S3

Nicht nur immer mehr der schnellsten Supercomputer der Welt nutzen GPUs zur Beschleunigung von Berechnungen, auch Amazon integriert Nvidias Tesla-GPU in seine Cloud-Infrastruktur und bietet ab sofort sogenannte Cluster-GPU-Instanzen für High-Performance-Computing an.
Die neuen GPU-Instanzen(öffnet im neuen Fenster) bieten 22 GByte Speicher, verwenden zwei Xeon-Prozessoren vom Typ X5570 und damit eine Rechenleitung von 33,5 EC2-Compute-Units und unterstützen Amazons EC2-Cluster-Network. Zudem sind die Instanzen mit 1,69 TByte Festplattenplatz und einem 10-Gigabit-Ethernet-Anschluss ausgestattet.
Als GPU kommt Nvidias Tesla M2050 zum Einsatz, die auch im schnellsten Supercomputer der Welt, dem Tianhe-1A, verwendet wird. Sie kann nach der Installation von Nvidias CUDA-Treibern in der jeweiligen Instanz angesprochen werden.
Für die Nutzung einer Cluster-GPU-Instanz berechnet Amazon 2,10 US-Dollar pro Stunde, das entspricht rund 1.500 US-Dollar pro Monat, wenn eine Instanz rund um die Uhr läuft.
Multipart-Uploads für S3
Der Amazon-Cloud-Speicherdienst S3 unterstützt seit kurzem Multipart-Uploads. Damit lassen sich große Dateien in kleinere Datenpakete aufspalten und diese Pakete parallel oder sequenziell hochladen. Dabei werden maximal 1.024 Datenpakete mit je mindestens 5 MByte, maximal aber 5 GByte in Summe unterstützt.
Die Multipart-Uploads(öffnet im neuen Fenster) erlauben es beispielsweise, große Datenbestände schon in Teilen hochzuladen, noch bevor die Datei auf dem eigenen System vollständig vorliegt. Schlägt der Upload eines Datenpakets fehl, kann dieses einzeln neu hochgeladen werden, ohne dass auch die übrigen Daten erneut hochgeladen werden müssen.
Der Bucketexplorer(öffnet im neuen Fenster) unterstützt den Multipart-Upload bereits, weitere Werkzeuge und Bibliotheken sollten bald folgen.



