Zum Hauptinhalt Zur Navigation

AI-Gigafactory: Kanzler Merz trifft Nvidia-Chef in Berlin

Jensen Huang kommt kommende Woche nach Berlin und trifft Bundeskanzler Friedrich Merz. Union und SPD wollen eine AI-Gigafactory in Deutschland fördern, die 100.000 GPUs hat.
/ Achim Sawall
8 Kommentare News folgen (öffnet im neuen Fenster)
Jensen Huang im November 2024 in Tokio (Bild: Kyodo via Reuters Connect)
Jensen Huang im November 2024 in Tokio Bild: Kyodo via Reuters Connect

Ende kommender Woche will sich Bundeskanzler Friedrich Merz (CDU) in Berlin mit Jensen Huang treffen, dem Chef des US-amerikanischen GPU-Herstellers Nvidia. Das erfuhr das Handelsblatt(öffnet im neuen Fenster) aus Regierungs- und Branchenkreisen. Auch ein Gespräch mit Vizekanzler Lars Klingbeil (SPD) ist dem Vernehmen nach geplant.

Union und SPD haben sich darauf verständigt, eine AI-Gigafactory in Deutschland zu bauen, die von 100.000 GPUs angetrieben werden soll.

Nvidia-Chef Huang ist fast die ganze Woche auf Europareise. Am Montag tritt er zunächst auf der Tech Week in London mit der britischen Ministerin für Investitionen Poppy Gustafsson(öffnet im neuen Fenster) auf. Am Dienstag ist er für eine Keynote auf der Technologiekonferenz Vivatech in Paris(öffnet im neuen Fenster) angekündigt. Nach Einschätzung in Branchenkreisen dürfte Huang bei seinen Auftritten verschiedene Initiativen rund um den Aufbau von Recheninfrastruktur in Europa ankündigen.

Die EU hat ein Förderprogramm(öffnet im neuen Fenster) für den Bau von AI Gigafactories ausgeschrieben, die für das Training großer Sprachmodelle geeignet sind. In jeder der vier bis fünf geplanten Anlagen sollen 100.000 oder mehr spezielle Rechenzentrums-GPUs zum Einsatz kommen. Nvidia ist hier der Marktführer.

SAP, Deutsche Telekom, Ionos, die Schwarz Gruppe und Siemens planen eine gemeinsame Bewerbung bei der Europäischen Union (EU) für die KI-Rechenzentren.

Warum GPUs für KI und künstliche neuronale Netzwerke so wichtig sind

GPUs sind vielseitig einsetzbar und ideal geeignet für parallele Berechnungen, wie sie in der KI häufig vorkommen - allerdings sind sie auch energieintensiv und teuer, berichtete unser Autor Klaus Manhart . Am häufigsten werden sie für das Training von KI-Modellen verwendet. Da es sehr rechenintensiv ist, verbindet man mehrere GPUs miteinander, damit sie alle synchron ein KI-System trainieren können.

KI-optimierte Prozessoren gibt es von fast allen großen Prozessor-Anbietern. Nvidia - bekannt für seine GPUs - ist mit seinen Tensor-Core-GPUs in die High-End-KI eingestiegen. Die Core-GPUs sind integraler Bestandteil ihrer KI-optimierten GPU-Architektur und sollen Matrixmultiplikationen und komplexe Tensoroperationen so schnell wie möglich durchführen und aggregieren. Die neuesten Modelle beschleunigen Training und Inferenz großer neuronaler Netzwerke in Rechenzentren.


Relevante Themen