Zum Hauptinhalt Zur Navigation

Monopolbildung befürchtet: Intransparenz bei KI-Agentensystemen bedroht Sicherheit

Eine Untersuchung von agentischen KI-Systemen zeigt auf, welche Risiken durch die geringe Diversifizierung bei KI -Basismodellen entstehen.
/ Mike Faust
Kommentare News folgen (öffnet im neuen Fenster)
Das Massachusetts Institute of Technology hat den AI Agent Index 2025 herausgegeben. (Bild: Scott Eisen/Getty Images)
Das Massachusetts Institute of Technology hat den AI Agent Index 2025 herausgegeben. Bild: Scott Eisen/Getty Images

Das Massachusetts Institute of Technology (MIT) hat den AI Agent Index für das Jahr 2025(öffnet im neuen Fenster) herausgegeben und adressiert darin die wachsende Intransparenz moderner KI-Agentensysteme. Untersucht wurden dabei Chat-Anwendungen mit agentischen Werkzeugen, wie Manus AI, ChatGPT Agent, Claude Code, und KI-Browseragenten, wie Perplexity Comet, ChatGPT Atlas, Bytedance Agent Tars, sowie Unternehmens-Workflow-Agenten, wie Microsoft Copilot Studio und Servicenow Agent.

Viele Unternehmen veröffentlichen zwar allgemeine ethische Richtlinien oder Sicherheitsrahmenwerke, liefern aber kaum empirische Beweise oder detaillierte Ergebnisse von Sicherheitstests. Angaben zu Tests von unabhängigen Dritten konnten lediglich zu 7 der 30 untersuchten KI-Agenten gefunden werden.

Als Risiko bewerten die beteiligten Forscher zudem, dass die Entwicklung von KI-Modellen stark auf die USA (21 von 30) und China (5 von 30) beschränkt ist. Hinzu kommt, dass das gesamte KI-Ökosystem von wenigen Basismodellen (OpenAI, Anthropic und Google) abhängig ist. Bei den KI-Browseragenten falle laut den Forschern auf, dass diese zwar die meiste Autonomie besitzen, aber kaum Möglichkeiten für menschliche Eingriffe während der Ausführung bieten.

Monopolbildung steigert Ausfallrisiko

Dass viele KI-Agenten etablierte Standards ignorieren, um Webseiten auszulesen, und direkt mit diesen interagieren können, steigert nicht nur die rechtlichen Spannungen, sondern kann auch zu einem Kontrollverlust führen, so der Bericht. Es bestehe das Risiko, dass die Agenten autonom schädliche Handlungen, wie das Hacken von Webseiten, ausführen.

Als Rechtfertigung für das Ignorieren von etwa der robots.txt durch KI-Bots (g+) wird häufig angegeben, dass die Agenten im Auftrag ihrer menschlichen Nutzer handelten und somit über dieselben Rechte verfügten. Da einige Agenten aber gezielt darauf trainiert sind, menschliches Verhalten zu simulieren , um Anti-Bot-Systeme zu umgehen, untergraben sie die Kontrolle der Inhaltsanbieter über ihre eigenen Daten.

Die beteiligten Forscher befürchten langfristige negative Auswirkungen auf den Arbeitsmarkt und die Zunahme von Ungleichheit durch den unkontrollierten Einsatz von KI-Agenten. Die zunehmende Monopolbildung führe außerdem zu einer Steigerung der Single Points of Failure, wobei ein Fehler im Basismodell oder ein Ausfall des Anbieters das gesamte Agenten-System destabilisieren könne.


Relevante Themen