4,3 Billionen US-Dollar Börsenwert: Darum ist Nvidia das wertvollste Unternehmen der Welt

Inhalt
Vor einigen Jahren noch kannten Nvidia hauptsächlich Menschen, die sich für Computerspiele begeistern – heute berichten auch Medien wie die Tagesschau oder große Zeitungen über Nvidia. Der Wert des Unternehmens, gemessen an der Marktkapitalisierung, ist in den vergangenen Jahren regelrecht explodiert: vom Tiefpunkt mit rund 280 Milliarden US-Dollar im Oktober 2022 auf zuletzt rund 4,3 Billionen US-Dollar.
Diesen rasanten Aufstieg verdankt die Aktie der künstlichen Intelligenz (KI), die in den vergangenen Jahren enorme Fortschritte machte und deren Entwickler teils revolutionäre Versprechungen machen. Denn hier setzt fast jeder auf Nvidia-Hardware, so dass das Unternehmen mit der Produktion zeitweise nicht hinterherkam . Aber die Produkte des Unternehmens stecken in noch wesentlich mehr: in Autos , Robotern , Supercomputern für wissenschaftliche Berechnungen, Nintendos Switch-Spielekonsolen – und sogar russischen Kampfdrohnen , wenn auch zweckentfremdet.
Dabei hat Nvidia eigentlich mit etwas ganz anderem angefangen, was uns zu den Computerspielen zurückbringt: Grafikkarten, abgekürzt als GPU für Graphics Processing Unit. Diese entwickelt das Unternehmen seit seiner Gründung 1993. Auch bei der Hardware, die für KI-Berechnungen eingesetzt wird, handelt es sich im Wesentlichen um Grafikkarten. Diese Hardware verkauft Nvidia in verschiedensten Formen – von kleinen, energieeffizienten, eigenständigen Chips bis hin zu spezialisierten Varianten für große KI-Rechenzentren mit Stückpreisen von mehreren 10.000 Euro.
Nvidia ist allerdings bei Weitem nicht der einzige Anbieter von Hardware für KI-Anwendungen, hat aber ein Alleinstellungsmerkmal: seine Software Cuda, die oft als Nvidias Burggraben bezeichnet wird. Mit Cuda werden die GPUs des Unternehmens programmiert, um sie neben 3D-Grafiken alle möglichen anderen Berechnungen ausführen zu lassen.
Am Anfang wollten Wissenschaftler sparen
Auf die Idee, GPUs für etwas anderes als die Berechnung von Grafik zu nutzen, kamen Wissenschaftler 2002. Sie wollten wissenschaftliche Berechnungen beschleunigen, und GPUs waren eine günstige und leistungsfähige Alternative zu normalen Prozessoren (kurz CPU genannt für Central Processing Unit), leistungsfähigen Großrechnern und speziellen, teuren Rechenbeschleunigern.
Die Berechnung von 3D-Grafiken und die zum Lösen vieler wissenschaftlicher Probleme erforderlichen Berechnungen haben eines gemeinsam: Sie lassen sich gut auf sehr viele Recheneinheiten verteilen. Entsprechend haben GPUs sehr viele Recheneinheiten, um möglichst viele Dreiecke, die gängigste Grundstruktur dreidimensionaler Objekte, und Pixel, die Bildpunkte, die am Ende auf dem Bildschirm dargestellt werden, gleichzeitig verarbeiten zu können. Die Recheneinheiten sind einfacher als normale CPUs, können daher nicht eigenständig arbeiten, belegen aber auf einem Silizium-Chip deutlich weniger Fläche.
Bei den ersten Generationen sogenannter 3D-Beschleuniger – anfangs waren die nicht einmal eine eigenständige GPU – waren die Berechnungen noch als feste Programme integriert. Das änderte sich um die Jahrtausendwende, als GPU-Entwickler programmierbare Recheneinheiten integrierten. Das gab Spieleentwicklern die Möglichkeit, neue Grafikeffekte zu gestalten – und Wissenschaftlern die Möglichkeit, die GPUs für ihre Bedürfnisse zu zweckentfremden.
Nvidia erkennt ein neues Geschäftsfeld
Das gestaltete sich anfangs recht kompliziert, denn die Daten für Berechnungen mussten erst in ein Format umgewandelt werden, das die GPU verarbeiten konnte. Auch war die Länge der Programme begrenzt und die Programmierschnittstellen wie DirectX und OpenGL waren für Grafikberechnungen ausgelegt und entsprechend für alles andere umständlich zu benutzen.
Allerdings zeigte sich hier, was auch heute noch die Grundlage für Nvidias Erfolg ist: Das Unternehmen erkannte neue Einsatzzwecke – und damit Absatzmöglichkeiten – für seine Produkte früh und förderte sie aktiv. Um die Nutzung seiner GPUs für wissenschaftliche Berechnungen zu vereinfachen, entwickelte Nvidia zum Beispiel die bereits erwähnte Programmierschnittstelle Cuda.
Cuda war die erste Programmierschnittstelle dieser Art und macht die Anpassung von existierendem Programmcode sehr einfach (g+) . Es wurde unter Wissenschaftlern, aber auch etwa für Grafik- und CAD-Programme (Computer Aided Design) begeistert aufgegriffen. Und Nvidia beließ es nicht bei einer Programmierschnittstelle.



