Large Language Models: Wie schafft China mit weniger Ressourcen bessere Resultate?

Das Training von KI-Modellen gerade für Text gilt gemeinhin als teuer. Allein das Training neuer Versionen von ChatGPT wird auf hohe zweistellige Millionenbeträge(öffnet im neuen Fenster) geschätzt. Im Vergleich dazu sind die von Deepseek angegebenen sechs Millionen US-Dollar für das Training günstig. Dennoch sind diese Modelle, nahezu gleich gut(öffnet im neuen Fenster) – teilweise besser als OpenAI und Co. Wie schaffen die das?
Mit Ausnahme von Mistral aus Frankreich stammen alle ernstzunehmenden Konkurrenten US-amerikanischer KI-Unternehmen ausnahmslos aus China, trotz Restriktionen für die Einfuhr von Chips. Wir erklären an einzelnen Beispielen, was chinesische Unternehmen anders und besser machen und was sich daraus folgern lässt.