Was bei KI 2025 passiert ist: Das Ende der Wundermaschinen
Das Jahr 2025 begann auf dem Gebiet der künstlichen Intelligenz mit einem Paukenschlag: Das chinesische Start-up Deepseek veröffentlichte(öffnet im neuen Fenster) im Januar sein Sprachmodell Deepseek-R1 – ein offenes, leistungsstarkes System, das mit den besten westlichen Modellen konkurrieren konnte, aber zu einem Bruchteil der Trainingskosten entstand.
Binnen Tagen ging das Modell viral und die Börsenkurse westlicher KI-Unternehmen brachen kurzzeitig ein: Softwareexperten waren erstaunt über die gewaltige Effizienzsteigerung, die Deepseek beim Training des Modells erreicht hatte. Gleichzeitig markierte die Veröffentlichung eine geopolitische Zäsur. Zum ersten Mal stammte ein global führendes KI-Modell aus China – und es war öffentlich verfügbar.
Deepseek-R1 war nicht nur technisch bemerkenswert, sondern auch politisch aufgeladen. Nutzer stellten schnell fest(öffnet im neuen Fenster) , dass das Modell bei sensiblen Themen wie Taiwan oder Menschenrechte zensierte Antworten lieferte – ein Fingerzeig auf die wachsende Kluft zwischen offenen und staatlich kontrollierten KI-Ökosystemen.
Innere Monologe machen KI schlauer
Um ihren Innovationsvorsprung gegenüber der neuen chinesischen Konkurrenz aufrechtzuerhalten, arbeiteten die westlichen Technologiekonzerne an einer neuen Evolutionsstufe der KI: den Agenten . Als wichtigen Schritt dahin eröffnete OpenAI im Frühjahr mit seinen Modellen o3 und o4-mini(öffnet im neuen Fenster) eine neue Phase des Reasoning – der Fähigkeit, Probleme von unterschiedlichen Perspektiven zu überdenken und der Lösung schrittweise näherzukommen.
Anstatt eine Frage sofort zu beantworten, nehmen sich diese Modelle Zeit: Sie durchlaufen innere Argumentationsketten, bevor sie antworten. Im Laufe dieses inneren Monologs konnten diese Modelle auch erstmals eine größere Zahl an Werkzeugen – zum Beispiel eine Internetsuche – einbinden und flexibel auf die zurückgemeldeten Ergebnisse reagieren.
Damit überwanden Sprachmodelle endgültig die Einschränkungen des bloßen Dialogs mit der Nutzerschaft. Aus einem Gesprächspartner wurde ein operativer Assistent, der recherchieren, berechnen, planen und aus Teilschritten Rückschlüsse ziehen kann. Und der Begriff KI-Agent, der für ein solches System geprägt wurde, stieg schnell zum Buzzword des Jahres 2025 auf.
Die Lizenz zum Denken: KI-Agenten
Die meisten größeren Softwarefirmen veröffentlichten im Laufe des Jahres ihre eigenen Agenten. Typische Anwendungsfälle sind dabei das Durchführen umfangreicher Recherchen im Internet(öffnet im neuen Fenster) mit anschließender Zusammenfassung der Ergebnisse oder die Entwicklung ganzer Software-Anwendungen(öffnet im neuen Fenster) . Auch Softwarefirmen wie Salesforce oder SAP stellten eigene Agenten vor, um den Nutzern bei der Bedienung ihrer jeweiligen Produkte zur Seite zu stehen.
Eine wichtige Grundlage vieler Agenten blieben die Sprachmodelle der großen Technologiefirmen, die mittlerweile in einer nur noch schwer überschaubaren Vielfalt zur Verfügung stehen. Google Deepmind veröffentlichte im März Gemini(öffnet im neuen Fenster) 2.5 Pro, eine multimodale KI, die Text, Code, Bilder und Videos in einem Arbeitsfluss verarbeiten kann, und legte schon im November mit der Version 3.0 pro nach.
Konkurrent Anthropic stellte im Mai Claude Opus 4 vor, dessen Agentenfähigkeiten vor allem in Entwicklungsumgebungen beeindruckten, und ließ ebenfalls im November die Version 4.5 folgen. Zu diesen Modellen gesellen sich noch diverse Spezialvarianten, abgespeckte und damit kostengünstigere Mini-Versionen sowie die entsprechenden Modelle weiterer Wettbewerber.
Geringere Technologiesprünge als in den beiden Vorjahren
Allgemein zeigte sich darin ein neuer Trend: Während in den Jahren 2023 und 2024 die Qualitätssprünge von einer Modellgeneration zur nächsten jeweils noch großes Aufsehen erregten, lieferten die großen KI-Labore 2025 eher einen steten Strom inkrementeller Verbesserungen.
Besonders deutlich wurde dies im August, als das mit Spannung erwartete GPT-5-Modell von OpenAI veröffentlicht(öffnet im neuen Fenster) wurde: Das Modell selbst war zwar seinen vorherigen Versionen in vielen Bereichen überlegen – vor allem bei wissenschaftlichen Anwendungen und Softwareentwicklung -, stellte aber bei Weitem keinen so großen technologischen Sprung dar , wie es bei den Vorgängerversionen GPT-3 und GPT-4 noch der Fall war.
Immer wichtiger wurde 2025 hingegen vor allem die Einbindung der KI in Arbeitsabläufe und Geschäftsmodelle. Ein beeindruckendes Beispiel hierfür ist Google mit seiner Suchmaschine – einem wahren Goldesel, der im Jahr 2024 rund 270 Milliarden US-Dollar an Werbeeinnahmen erzeugt hat.
Das Google-Dilemma
Noch vor drei Jahren stand Google vor einem ernsthaften Innovator's Dilemma(öffnet im neuen Fenster) : Wenn Nutzer nicht mehr Internetseiten suchen und lesen wollen, sondern von einer KI direkt Antworten auf ihre Fragen erwarten – wie lässt sich dann mit Internetsuche noch Geld verdienen? Und wie kann Google als Quasi-Monopolist seinen Kunden die viel teureren, da rechenintensiveren KI-Antworten anbieten, ohne sein hochprofitables Geschäftsmodell zu gefährden?
Mittlerweile scheint es so, als ob Google dieses Problem durch eine intelligente Verzahnung von KI mit seinem Kerngeschäft gelöst hat. Mit dem neuen KI-Modus und den KI-Übersichten liefert Google keine einfache Ergebnisliste mehr, sondern direkt bequeme, verständliche Antworten und Zusammenfassungen – oft angereichert mit Quellenlinks und weiterführenden Optionen. Die notwendige Rechenleistung pro Anfrage und damit die Kosten für diese Dienstleistung sind dabei seit 2023 dank technischer Verbesserungen dramatisch gefallen.
Für Google bedeutet das eine strategische Neubewertung seines Kerngeschäfts. Der Schritt hin zu KI-gestützter Suche schützt das Werbemodell: Wenn Nutzer weniger auf externe Seiten klicken, bleibt Google – als Plattform der Antwort – zentral. Zugleich schafft das Unternehmen neue Möglichkeiten, Werbung, Empfehlungen und Geschäftsdienste direkt mit der KI-Suche zu verknüpfen. Die aktuellen Rekordstände im Börsenkurs seiner Muttergesellschaft Alphabet belegen, dass man zumindest an den Aktienmärkten an den Erfolg dieser Strategie glaubt.
Nicht alle Firmen profitieren stark von KI
Andererseits blieb aber der Effekt durch KI-Nutzung gerade in den traditionellen Branchen auch 2025 hinter manch hochgesteckten Erwartungen zurück. Neben den üblichen kulturellen, finanziellen oder organisatorischen Gründen, welche die Einführung einer neuen Technologie hemmen können, unterliegen gerade die großen Sprachmodelle noch immer technischen Limitationen, die ihre Nützlichkeit im Unternehmensalltag einschränken .
Es ist zwar beeindruckend, wenn ein Modell wie GPT-5 akademische Spitzenleistungen in Biochemie oder Mathematik erbringen kann, aber für die meisten alltäglichen Anwendungen spielt dies keine Rolle. Ein großes Problem ist allerdings, dass es nach wie vor keinen voll befriedigenden Weg gibt, Sprachmodelle während ihres Betriebs dazulernen zu lassen. Daher bleibt es gerade für Anwendungen im Unternehmen eine Herausforderung, die Modelle mit relevantem Kontext zu füttern, zum Beispiel mit einem Verständnis der eigenen Prozesse, Produkte oder Märkte. Dies ist einer der Gründe dafür, dass sich auch im Jahr 2025 die meisten Unternehmen noch schwer taten, ihre Prozesse mithilfe von KI grundlegend zu verbessern(öffnet im neuen Fenster) .
Ungeachtet dieser Schwierigkeiten nahmen die Investitionen in KI-Forschung und vor allem in Rechenkapazitäten weiter zu. So berichtet allein Microsoft(öffnet im neuen Fenster) , im Jahr 2025 rund 80 Milliarden US-Dollar in den Ausbau von KI-Rechenzentren zu pumpen. Die Investitionen der anderen großen Technologiekonzerne Alphabet, Amazon und Meta liegen in derselben Größenordnung.
Das Zittern vorm Platzen der Blase
In Verbindung mit den anhaltenden Schwierigkeiten, KI in der Breite zu einem wirklich starken Werttreiber zu machen, verstärkten sich in der zweiten Jahreshälfte 2025 die Sorgen darüber, ob die enormen Investitionen des Technologiesektors wirtschaftlich tragfähig sind. Der Begriff der KI-Blase verdrängte die KI-Agenten vom Spitzenplatz der meistgenutzten Schlagworte.
Angeheizt wurden die Befürchtungen durch die Zunahme sogenannter zirkulärer Geschäfte(öffnet im neuen Fenster) , bei denen auf dem Papier hohe Umsätze dadurch erzeugt werden, dass Geld innerhalb der KI-Branche hin- und hergereicht wird. So hat beispielsweise Nvidia angekündigt, 100 Milliarden US-Dollar in OpenAI zu investieren, während im Gegenzug OpenAI Rechenzentren mit einer Leistung von 10 Gigawatt mit Nvidia-Hardware ausrüsten will.
Die Aktienmärkte zeigten sich von allen Blasenängsten jedoch bislang eher unbeeindruckt: Nvidia führt als wichtigster Zulieferer der KI-Industrie die Liste der weltweit wertvollsten Aktiengesellschaften an und erreichte im Oktober 2025 als erstes Unternehmen überhaupt eine Marktkapitalisierung von fünf Billionen Dollar.
Günstig geht auch
Quasi als Gegenpol zu den schwindelerregenden Investitionen der Technologiekonzerne machte allerdings auch das Open-Source-Ökosystem im Jahr 2025 große Fortschritte. Mit dem eingangs erwähnten Release von Deepseek‑R1 im Januar erregte ein vorher wenig bekannter chinesischer Anbieter Aufsehen – das Modell wurde mit frei einsehbaren Modellparametern veröffentlicht und erreicht laut mehreren Vergleichen eine Leistungsfähigkeit, die mit großen proprietären Systemen konkurrieren kann.
Im Frühjahr wurde Deepseek-R1 zudem mit einem großen Update versehen: Die Version Deepseek‑R1‑0528(öffnet im neuen Fenster) steigerte die Fähigkeiten bei Mathematik, Programmierung und logischem Denken deutlich, was viele in der Szene als Beleg dafür sahen, dass Open-Source-Modelle nicht nur mitziehen, sondern in Teilbereichen sogar führend sein können.
Doch Deepseek war nicht allein. Im Laufe des Jahres traten mehrere Modelle und Initiativen auf den Plan, die zeigten, wie vielfältig quelloffene Modelle sein können.
Open Source bringt Vielfalt in die KI-Landschaft
Das Modell AM‑Thinking‑v1(öffnet im neuen Fenster) beispielsweise – veröffentlicht im Mai 2025 ebenfalls von einer chinesischen Arbeitsgruppe – belegte eindrucksvoll, dass auch mittelgroße Open-Source-Sprachmodelle mit rund 32 Milliarden Parametern in Mathematik- und Coding-Benchmarks starke Leistungen erbringen können. Diese Ergebnisse liegen auf dem Niveau oder sogar über den Werten vergleichbarer, deutlich größerer Mixture-of-Experts-Modelle wie Deepseek-R1, obwohl AM-Thinking-v1 nur einen Bruchteil der Parameter hat. Damit wurde deutlich: Leistungsfähigkeit braucht nicht immer riesige Modelle und entsprechende Rechenkapazität.
Ein weiteres Beispiel verbindet quelloffene Sprachmodelle mit den Funktionen einer klassischen Suchmaschine: Open Deep Search (ODS) ist ein offenes KI-Framework zur Informationssuche und -verarbeitung, das von einem Forschungsteam der Sentient Foundation sowie Wissenschaftlern der University of Washington, Princeton University und UC Berkeley vorgestellt wurde(öffnet im neuen Fenster) . Ziel des Projekts ist es, die wachsende Lücke zwischen proprietären Such-KI-Produkten großer Technologieanbieter und offenen Alternativen zu schließen.
Im Kern besteht ODS aus zwei modularen Komponenten: dem Open Search Tool und dem Open Reasoning Agent. Nutzerinnen und Nutzer können ein beliebiges großes Sprachmodell, etwa Deepseek-R1, als Basis einsetzen und dieses durch ODS mit erweiterten Such- und Denkfähigkeiten ausstatten. Praktisch bedeutet das: Open Deep Search kann nicht nur einfache Webanfragen beantworten, sondern auch komplexere Wissens- und Analyseaufgaben, indem es LLM-Fähigkeiten mit aktuellen Webinformationen und strukturiertem Reasoning verbindet.
Regulatorik holt die Technologie ein
Während sich 2025 technisch durch inkrementelle Fortschritte und neue Anwendungsformen auszeichnete, gewann parallel ein weiterer Faktor an Bedeutung: die Regulierung von künstlicher Intelligenz. Spätestens mit dem Inkrafttreten zentraler Teile des europäischen AI Act wurde klar, dass KI nicht länger nur eine technologische oder wirtschaftliche Frage ist, sondern zunehmend auch eine rechtliche und organisatorische.
Der AI Act ist das weltweit erste umfassende Gesetz zur Regulierung von KI-Systemen(öffnet im neuen Fenster) . Er verfolgt einen risikobasierten Ansatz und unterscheidet KI-Anwendungen danach, welches Gefährdungspotenzial sie für Grundrechte, Sicherheit und gesellschaftliche Prozesse darstellen. Verbotene Praktiken (z. B. Social Scoring), Hochrisikosysteme (etwa in Medizin, Personalrekrutierung oder Kreditvergabe) und allgemein einsetzbare KI-Modelle werden dabei jeweils unterschiedlich behandelt.
Für Unternehmen bedeutete das im Jahr 2025 vor allem eines: Vorbereitung. Auch wenn viele Verpflichtungen erst schrittweise greifen, begannen Compliance-, IT- und Rechtsabteilungen damit, KI-Anwendungen zu inventarisieren, sie Risikoklassen zuzuordnen und neue Governance-Strukturen aufzubauen.
Der AI Act und die großen Sprachmodelle
Besonders intensiv diskutiert wurde 2025 die Regulierung sogenannter General Purpose AI Models – also großer Sprachmodelle wie GPT-5, Gemini oder Claude, die für eine Vielzahl sehr unterschiedlicher Anwendungen genutzt werden können. Der AI Act verpflichtet(öffnet im neuen Fenster) Anbieter solcher Modelle unter anderem zu technischer Dokumentation, Transparenz über Trainingsdaten und – bei besonders leistungsfähigen Systemen – zu zusätzlichen Risikominderungsmaßnahmen.
Für die großen KI-Labore bedeutete dies einen erheblichen Mehraufwand, aber auch eine strategische Chance: Wer früh regulatorische Anforderungen erfüllt, kann dies als Qualitätsmerkmal vermarkten und sich einen zeitlichen Vorsprung gegenüber den Wettbewerbern sichern. OpenAI, Google und Anthropic betonten 2025 daher verstärkt ihre internen Sicherheitsprozesse, Red-Teaming-Ansätze und Governance-Strukturen.
Kritiker warnten indes wiederholt davor, dass der AI Act europäische Unternehmen im globalen Wettbewerb benachteiligen(öffnet im neuen Fenster) könne. Vom Start-up bis zum Großunternehmen klagten betroffene Firmen über unklare Anforderungen und hohen Dokumentationsaufwand.
Während die EU auf detaillierte gesetzliche Vorgaben setzt, verfolgen die USA weiterhin einen stärker marktorientierten Ansatz mit freiwilligen Selbstverpflichtungen. China wiederum kombiniert staatliche Kontrolle mit massiver Förderung heimischer Anbieter . Der globale KI-Markt fragmentiert sich(öffnet im neuen Fenster) damit nicht nur technisch, sondern auch regulatorisch.
2026: KI-Agenten werden alltäglicher – und relevanter
Nach einem Jahr der Konsolidierung deutet vieles darauf hin, dass 2026 weniger von spektakulären Technologiesprüngen, sondern stärker von Umsetzung und Integration geprägt sein wird. KI-Agenten werden alltäglicher, unauffälliger – und damit wirtschaftlich relevanter.
Der Wettbewerb wird sich weniger um die "klügste" KI drehen als um diejenige, die sich am besten in bestehende Prozesse, Produkte und regulatorische Rahmen einfügt. Im Zuge dieses Reifungsprozesses wird KI immer weniger als Wundermaschine wahrgenommen, dafür mehr als Infrastruktur – vergleichbar mit Cloud Computing oder dem Internet selbst.
KI wird körperlich
Parallel dazu setzt sich – etwas abseits der öffentlichen Aufmerksamkeit – ein zweiter Trend fort: die zunehmende Verschmelzung von KI und Robotik. Während bislang spektakuläre Demonstrationen von Prototypen(öffnet im neuen Fenster) durch Firmen wie Boston Dynamics die Wahrnehmung von humanoiden Robotern prägten, kündigten mehrere Unternehmen für 2026 erstmals eine industrielle Skalierung humanoider Roboter an.
So ging beispielsweise das Start-up Figure AI eine Partnerschaft mit BMW(öffnet im neuen Fenster) ein, um humanoide Roboter in der Automobilproduktion einzusetzen, der chinesische Konzern XPeng plant(öffnet im neuen Fenster) die Massenproduktion seiner humanoiden Iron-Roboter bis Ende 2026, ebenso wie der bayerische Automatisierungsspezialist Agile Robots(öffnet im neuen Fenster) . Und dies sind nur einige Beispiele für ein aufstrebendes Ökosystem mit Dutzenden Entwicklern ähnlicher Systeme weltweit.
Der Übergang von rein digitaler zu "verkörperter" künstlicher Intelligenz zeichnet sich damit immer deutlicher ab – und deutet an, dass die nächste große Wachstumsphase der KI nicht nur auf dem Bildschirm, sondern zunehmend in der physischen Welt stattfinden dürfte.
Helmut Linde(öffnet im neuen Fenster) leitete verschiedene Data-Science-Teams in deutschen Konzernen und ist nun bei seinem Arbeitgeber für die Digitalisierung von Forschung und Entwicklung verantwortlich. Als Mathematiker und Physiker ist er fasziniert von naturwissenschaftlichen Themen sowie der Anwendung und der Zukunft der künstlichen Intelligenz.
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.



