Zum Hauptinhalt Zur Navigation

Golem Plus Artikel
Data Centric Computing:
Wie DPUs die Rechenzentren erobern

Cloud-Provider stehen vor großen Herausforderungen im Petabyte-Zeitalter. Riesige Datenmengen benötigen Spezialhardware zur Verarbeitung, die wir in diesem Artikel erklären.
/ Martin Böckmann
Kommentare News folgen (öffnet im neuen Fenster)
Eine Nvidia-Bluefield-2-DPU (Bild: Nvidia)
Eine Nvidia-Bluefield-2-DPU Bild: Nvidia

In den letzten Jahren haben alle größeren Prozessorhersteller, darunter auch AMD(öffnet im neuen Fenster) , Intel(öffnet im neuen Fenster) und Nvidia(öffnet im neuen Fenster) , entweder eigene Geräte entwickelt oder sich entsprechendes Know-how eingekauft, um DPUs in ihre Produktpalette eingliedern zu können. Denn die auf den ersten Blick häufig als intelligente Netzwerkkarte (Smart-NIC) identifizierten Adapter sind aus einem modernen Cloud-Rechenzentrum kaum noch wegzudenken. Wir zeigen, in welchen Fällen die Nutzung von DPUs sinnvoll ist oder sogar zwingend erforderlich wird.

Datenverarbeitung in Rechenzentren – selbstverständlich auch im kleineren Rahmen auf dem Heimcomputer – ist meistens anwendungsbezogen. Dabei wird eine Applikation auf einem Computer installiert und die zu bearbeitenden Daten müssen so strukturiert sein, dass sie der Anwendung zur Verfügung stehen. Dazu sind bei größeren Datenmengen NAS-Systeme mehr oder weniger direkt mit dem System verbunden.

Golem Plus Artikel