Zum Hauptinhalt Zur Navigation

Nvidia H20: KI-GPU für China deutlich günstiger und besser ausgestattet

Nvidia startet den Verkauf des KI -Beschleunigers H20 in China. Der bekommt vermehrt heimische Konkurrenz, künftig auch mit HBM-Speicher aus China.
/ Johannes Hiltscher
2 Kommentare News folgen (öffnet im neuen Fenster)
Bei der H100 ist eines der HBM-Module einer Attrappe - die H20 bekommt in China ein echtes. (Bild: Nvidia)
Bei der H100 ist eines der HBM-Module einer Attrappe - die H20 bekommt in China ein echtes. Bild: Nvidia

Nach anfänglichen Problemen startet Nvidia in China den Verkauf seiner neuen Rechengrafikkarte für KI-Anwendungen. Die South China Morning Post (SCMP) berichtet unter Berufung auf Industrie-Insider(öffnet im neuen Fenster) , das Unternehmen nehme Vorbestellungen für die GPU an. Fertige Systeme sollen ungefähr ab Mitte des Jahres erhältlich sein. Die H20 beerbt die H800, die Nvidia nach einer Verschärfung der US-Handelsregularien seit Oktober 2023 nicht mehr in die Volksrepublik exportieren darf .

Überraschend ist der Preis der H20: Laut SCMP soll sie umgerechnet zwischen 12.000 und 15.000 US-Dollar kosten. Damit verlangt Nvidia weniger als die Hälfte des Preises für eine H100. Dabei ist die H20 laut einer Übersicht des Analysten Dylan Patel(öffnet im neuen Fenster) sogar besser ausgestattet: Statt 80 GByte verfügt sie über 96 GByte HBM-Speicher mit höherer Bandbreite. Die H20 soll als SXM-Karte eine Speicherbandbreite von 4 TByte/s haben, die H100 kommt im gleichen Formfaktor auf lediglich 3,35 TByte/s. Nvidia bestückt hier also alle sechs Module, Kunden im Rest der Welt müssen dafür auf die H200 warten .

Einen Grund für den niedrigen Preis liefert die SCMP gleich mit: Nvidia steht in China preislich unter Druck. Ein Server mit acht H20 wäre der Zeitung zufolge mit umgerechnet etwa 196.000 US-Dollar in etwa so teuer wie ein vergleichbares System mit Huaweis Ascend 910 . Die Leistung beider Beschleuniger dürfte in etwa identisch sein, laut früheren Berichten soll die Rechenleistung des Ascend 910 auf dem Niveau von Nvidias A100 liegen.

Nächster Schritt: eigener HBM-Speicher

Gegenüber der Wirtschaftszeitung Nikkei Asia kommt eine ungenannte Führungskraft eines chinesischen Internetunternehmens zwar zu einem nüchterneren Fazit(öffnet im neuen Fenster) : "Ihre Leistung ist schlechter als die von Nvidia, aber wir können sie definitiv nutzen" . Doch ignorieren kann Nvidia diese Konkurrenz nicht, die Kunden sehen sich nach Alternativen um. Und die werden mehr, stetig steigen weitere Firmen und Start-ups in den Markt für KI-Beschleuniger ein, Moore Threads und Hygon sind nur die bekanntesten.

Fraglich ist allerdings, ob das Geschäft mit KI-Beschleunigern für Huawei aktuell profitabel ist. Nikkei Asia schreibt, dass Berichten zufolge die Ausbeute (Yield) der von der Semiconductor Manufacturing International Corporation (SMIC) gefertigten 7-nm-Chiplets bei nur knapp über 20 Prozent liege. Viel wichtiger ist allerdings, dass die chinesische Halbleiterbranche kontinuierlich Alternativen aufbaut. Denn die US-Regierung kündigte bereits an, die Handelsbeschränkungen streng zu kontrollieren .

Chinesische Unternehmen bereiten sich zudem bereits auf mögliche zukünftige Aktionen der US-Regierung vor: So meldet Nikkei Asia(öffnet im neuen Fenster) , das Unternehmen Changxin Memory Technologies (CXMT) kaufe aktuell Maschinen für das 3D-Stacking von Speicherchips für HBM-Speicher ein. Zwar habe man den noch nicht fertig entwickelt, allerdings will das Unternehmen mit dem Schritt möglichen Verschärfungen der Bestimmungen des US-Handelsministeriums zuvorkommen. Denn schneller Speicher ist für KI-Anwendungen mindestens genauso wichtig wie die Rechenleistung. Dass CXMT die Maschinen in der Produktion einsetzen wird, ist dabei nur eine Frage der Zeit. Die technologische Grundlage hat das Unternehmen, das im November 2023 eigenen LPDDR5-Speicher vorstellte(öffnet im neuen Fenster) .


Relevante Themen