Zum Hauptinhalt Zur Navigation

Golem Plus Artikel
Large Language Models:
Wie schafft China mit weniger Ressourcen bessere Resultate?

Neue KI -Modelle aus China sind oft überraschend stark bei vergleichsweise geringen Kosten. Was hinter der chinesischen Effizienz steckt.
/ Tim Elsner
23 Kommentare News folgen (öffnet im neuen Fenster)
Chinas Präsident Xi Jinping mit Deepseek (Bild: Daniel Felipe Kutepov / SOPA Images via Reuters Connect)
Chinas Präsident Xi Jinping mit Deepseek Bild: Daniel Felipe Kutepov / SOPA Images via Reuters Connect

Das Training von KI-Modellen gerade für Text gilt gemeinhin als teuer. Allein das Training neuer Versionen von ChatGPT wird auf hohe zweistellige Millionenbeträge(öffnet im neuen Fenster) geschätzt. Im Vergleich dazu sind die von Deepseek angegebenen sechs Millionen US-Dollar für das Training günstig. Dennoch sind diese Modelle, nahezu gleich gut(öffnet im neuen Fenster) – teilweise besser als OpenAI und Co. Wie schaffen die das?

Mit Ausnahme von Mistral aus Frankreich stammen alle ernstzunehmenden Konkurrenten US-amerikanischer KI-Unternehmen ausnahmslos aus China, trotz Restriktionen für die Einfuhr von Chips. Wir erklären an einzelnen Beispielen, was chinesische Unternehmen anders und besser machen und was sich daraus folgern lässt.

Golem Plus Artikel