Mehr Freiheiten für KI-Agenten: Anwender gewähren immer mehr Autonomie
Erfahrene Anwender gewähren KI-Agenten immer mehr Freiheiten. Wie Anthropic bei einer Untersuchung feststellte(öffnet im neuen Fenster) , bleibt die gewährte Autonomie aber immer noch weit hinter den technologischen Möglichkeiten der Sprachmodelle zurück.
Für die Analyse wurden laut Anthropic Millionen von Interaktionen über die bereitgestellte API sowie das Tool Claude Code (g+) analysiert. Bei letzterem wurde beobachtet, dass die durchschnittliche Zeit, in welcher der Agent bei längeren Sitzungen autonom arbeitet, innerhalb von drei Monaten von 25 auf 45 Minuten stieg.
Der Anteil der Sitzungen, in denen sich der Agent selbst die Freigabe zum Fortfahren erteilen könne (Auto Approve), sei bei Nutzern von etwa 20 auf 40 Prozent gestiegen, hieß es weiter. Für Anthropic ist dies ein Zeichen, dass Anwender dem Agenten mit steigender Erfahrung mehr Autonomie gewährten.
Claude stoppt häufig selbst
Gleichzeitig unterbrechen erfahrene Nutzer den KI-Agenten allerdings auch häufiger, als unerfahrene Anwender. Statt jede Aktion einzeln vorab zu genehmigen, setzen sie dabei auf eine aktive Überwachung, bei der nur interveniert wird, wenn es nötig ist.
Dennoch stoppt Claude Code doppelt so häufig selbst, als dies durch menschliche Unterbrechungen geschieht. Das liegt laut Anthropic daran, dass das Modell darauf trainiert ist, eigene Unsicherheiten zu erkennen und proaktiv Hilfe einzufordern, wenn Fragen geklärt werden müssen.
Risikoarme und umkehrbare Anwendungen dominieren
Die überwiegende Mehrheit der Aktionen, die über die API durchgeführt werden, sei risikoarm und umkehrbar, erklärte Anthropic. Nur etwa 0,8 Prozent der Aktionen, etwa das Versenden einer E-Mail, lassen sich nicht rückgängig machen. Es zeigen sich aber auch erste hochriskante Anwendungen, etwa Finanztransaktionen und Anwendungen in der Sicherheitstechnik.
Anthropic empfiehlt Entwicklern, verstärkt in die Überwachung von KI-Agenten zu investieren, um deren Verhalten zu beobachten. Das sei nötig, weil Labortests allein die Dynamik der Mensch-KI-Interaktionen nicht ausreichend erfassten.
KI-Produkte sollten laut dem Unternehmen zudem immer so gestaltet werden, dass sie Anwendern eine einfache Intervention ermöglichen, anstatt sie zur Genehmigung jeder noch so simplen Aktion zu nötigen.
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.