Zum Hauptinhalt Zur Navigation

Open Source bringt Vielfalt in die KI-Landschaft

Das Modell AM‑Thinking‑v1(öffnet im neuen Fenster) beispielsweise – veröffentlicht im Mai 2025 ebenfalls von einer chinesischen Arbeitsgruppe – belegte eindrucksvoll, dass auch mittelgroße Open-Source-Sprachmodelle mit rund 32 Milliarden Parametern in Mathematik- und Coding-Benchmarks starke Leistungen erbringen können. Diese Ergebnisse liegen auf dem Niveau oder sogar über den Werten vergleichbarer, deutlich größerer Mixture-of-Experts-Modelle wie Deepseek-R1, obwohl AM-Thinking-v1 nur einen Bruchteil der Parameter hat. Damit wurde deutlich: Leistungsfähigkeit braucht nicht immer riesige Modelle und entsprechende Rechenkapazität.

Ein weiteres Beispiel verbindet quelloffene Sprachmodelle mit den Funktionen einer klassischen Suchmaschine: Open Deep Search (ODS) ist ein offenes KI-Framework zur Informationssuche und -verarbeitung, das von einem Forschungsteam der Sentient Foundation sowie Wissenschaftlern der University of Washington, Princeton University und UC Berkeley vorgestellt wurde(öffnet im neuen Fenster) . Ziel des Projekts ist es, die wachsende Lücke zwischen proprietären Such-KI-Produkten großer Technologieanbieter und offenen Alternativen zu schließen.

Im Kern besteht ODS aus zwei modularen Komponenten: dem Open Search Tool und dem Open Reasoning Agent. Nutzerinnen und Nutzer können ein beliebiges großes Sprachmodell, etwa Deepseek-R1, als Basis einsetzen und dieses durch ODS mit erweiterten Such- und Denkfähigkeiten ausstatten. Praktisch bedeutet das: Open Deep Search kann nicht nur einfache Webanfragen beantworten, sondern auch komplexere Wissens- und Analyseaufgaben, indem es LLM-Fähigkeiten mit aktuellen Webinformationen und strukturiertem Reasoning verbindet.

Regulatorik holt die Technologie ein

Während sich 2025 technisch durch inkrementelle Fortschritte und neue Anwendungsformen auszeichnete, gewann parallel ein weiterer Faktor an Bedeutung: die Regulierung von künstlicher Intelligenz. Spätestens mit dem Inkrafttreten zentraler Teile des europäischen AI Act wurde klar, dass KI nicht länger nur eine technologische oder wirtschaftliche Frage ist, sondern zunehmend auch eine rechtliche und organisatorische.

Der AI Act ist das weltweit erste umfassende Gesetz zur Regulierung von KI-Systemen(öffnet im neuen Fenster) . Er verfolgt einen risikobasierten Ansatz und unterscheidet KI-Anwendungen danach, welches Gefährdungspotenzial sie für Grundrechte, Sicherheit und gesellschaftliche Prozesse darstellen. Verbotene Praktiken (z. B. Social Scoring), Hochrisikosysteme (etwa in Medizin, Personalrekrutierung oder Kreditvergabe) und allgemein einsetzbare KI-Modelle werden dabei jeweils unterschiedlich behandelt.

Für Unternehmen bedeutete das im Jahr 2025 vor allem eines: Vorbereitung. Auch wenn viele Verpflichtungen erst schrittweise greifen, begannen Compliance-, IT- und Rechtsabteilungen damit, KI-Anwendungen zu inventarisieren, sie Risikoklassen zuzuordnen und neue Governance-Strukturen aufzubauen.

Der AI Act und die großen Sprachmodelle

Besonders intensiv diskutiert wurde 2025 die Regulierung sogenannter General Purpose AI Models – also großer Sprachmodelle wie GPT-5, Gemini oder Claude, die für eine Vielzahl sehr unterschiedlicher Anwendungen genutzt werden können. Der AI Act verpflichtet(öffnet im neuen Fenster) Anbieter solcher Modelle unter anderem zu technischer Dokumentation, Transparenz über Trainingsdaten und – bei besonders leistungsfähigen Systemen – zu zusätzlichen Risikominderungsmaßnahmen.

Für die großen KI-Labore bedeutete dies einen erheblichen Mehraufwand, aber auch eine strategische Chance: Wer früh regulatorische Anforderungen erfüllt, kann dies als Qualitätsmerkmal vermarkten und sich einen zeitlichen Vorsprung gegenüber den Wettbewerbern sichern. OpenAI, Google und Anthropic betonten 2025 daher verstärkt ihre internen Sicherheitsprozesse, Red-Teaming-Ansätze und Governance-Strukturen.

Kritiker warnten indes wiederholt davor, dass der AI Act europäische Unternehmen im globalen Wettbewerb benachteiligen(öffnet im neuen Fenster) könne. Vom Start-up bis zum Großunternehmen klagten betroffene Firmen über unklare Anforderungen und hohen Dokumentationsaufwand.

Während die EU auf detaillierte gesetzliche Vorgaben setzt, verfolgen die USA weiterhin einen stärker marktorientierten Ansatz mit freiwilligen Selbstverpflichtungen. China wiederum kombiniert staatliche Kontrolle mit massiver Förderung heimischer Anbieter . Der globale KI-Markt fragmentiert sich(öffnet im neuen Fenster) damit nicht nur technisch, sondern auch regulatorisch.


Relevante Themen