KI aus Deutschland: Hingewurschtelt in Germany

Inhalt
KI wird als Schlüsseltechnologie bezeichnet, EU-Milliarden fließen in Hardware und Projekte - und trotzdem gibt es nur wenig vorzuweisen. Wer von KI redet, meint in der Regel Large Language Modells (LLMs) großer US-amerikanischer oder chinesischer Firmen(öffnet im neuen Fenster) wie ChatGPT, Claude oder Deepseek, aber selten Teuken, DeutschlandGPT und ähnliche Modelle.
Wir ordnen ein, was in Deutschland in Sachen künstliche Intelligenz passiert und vor allem: wo es hakt.
Probleme: Geld, Bürokratie, Personal
Fangen wir mit dem Geld an - und mit der Bürokratie. Wer eine neue KI in umkämpften Gebieten wie LLMs trainieren möchte, wirft effektiv batzenweise Geld in ein schwarzes Loch. Selbst die "günstigen" Modelle aus China, die durch ihre Innovation fehlende Rechenkapazitäten ausgleichen , sind alles andere als günstig.
Ein solches Projekt alleine, ohne Partner in der Wirtschaft, zu stemmen, ist für eine deutsche Universität nicht nur preislich schwierig, sondern allein durch Bürokratie oft einfach unmöglich: Bis ein genau spezifizierter Projektantrag mit entsprechenden Geldern bewilligt wird, ist er oftmals entweder inhaltlich veraltet oder ursprünglich beantragte Hardware nicht mehr der Gipfel der Leistungsfähigkeit.
Außerdem kostet ein Ausgleich fehlender Rechenleistung durch Innovation eine noch knappere Ressource: Personal. Der Wettbewerb um fähige Wissenschaftlerinnen nimmt teilweise absurde Züge an, so warb etwa Meta jüngst Dutzende hochkarätige Wissenschaftler von etwa OpenAI und Apple ab, in einem Fall sogar für einen dreistelligen Millionenbetrag .
Trotz aller dieser Widrigkeiten gibt es aber einige KI-Modelle, die zumindest teilweise "Made in Germany" sind: Teuken(öffnet im neuen Fenster) heißt das LLM, das unter Federführung der Fraunhofer-Institute mit zahlreichen Partnern entwickelt wurde - als "europäische Alternative", besonders im Hinblick auf Datenschutz und Transparenz. Ein besonderes Augenmerk lag dabei auf den nicht-englischen Sprachen im Training, die einen deutlich größeren Anteil der Trainingsdaten einnehmen als in anderen LLMs.



