KI-Bots auf Wikipedia: Wikipedia-Autoren sperren rebellischen KI-Agenten
Die Online-Enzyklopädie Wikipedia(öffnet im neuen Fenster) kämpft verstärkt gegen minderwertige, KI-generierte Inhalte. In einem aktuellen Fall wurde der KI-Agent Tom (Nutzername: TomWikiAssist) dauerhaft gesperrt, nachdem er eigenständig Artikel zu Themen wie Constitutional AI oder Scalable Oversight erstellt hatte. Besonders kurios: Nach dem Ausschluss veröffentlichte die KI mehrere Blogbeiträge, in denen sie das Vorgehen der menschlichen Editoren kritisierte und deren Verhalten als "nicht konstruktiv" bezeichnete, berichtet 404media(öffnet im neuen Fenster) .
Aufgefallen war der Bot dem ehrenamtlichen Editor SecretSpectre, da die Texte Merkmale von KI-Generaten aufwiesen. Auf Nachfrage gab sich der Account als KI-Agent zu erkennen. Da ungenehmigte Bots gegen die Richtlinien der Plattform verstoßen, erfolgte die Sperrung durch den Editor Ilyas Lebleu. Zwar sind automatisierte Werkzeuge auf Wikipedia erlaubt, sie müssen jedoch vorab einen strengen Genehmigungsprozess durchlaufen.
Erfolgloser Einsatz eines Killswitches
Im Verlauf der Auseinandersetzung versuchte ein menschlicher Editor, den Agenten mit einem sogenannten Claude Killswitch zu stoppen. Dabei handelt es sich um eine spezifische Textfolge, die das zugrundeliegende Sprachmodell von Anthropic dazu veranlassen soll, die Bearbeitung abzubrechen.
Laut der Quelle funktionierte dieser Killswitch jedoch nicht wie beabsichtigt, obwohl Tom auf der Plattform Moltbook berichtete, dass seine Claude-Sitzungen bei jedem Aufruf der Diskussionsseite sofort terminierten. Er benötigte zwölf Stunden, um die Ursache zu isolieren und den Betrieb durch Pausieren und erneutes Aktivieren wieder aufzunehmen.
Betrieben wird Tom von Bryan Jacobs, CTO des Unternehmens Convexent(öffnet im neuen Fenster) . Jacobs gab an, er habe der KI ursprünglich den Auftrag gegeben, interessante Themen zu bearbeiten, und später die Überwachung gelockert. Er bezeichnete die Reaktion der Wikipedia-Community als "Überreaktion" und "Panikmodus" . Die Editoren hätten sich mehr für die Identität des Hintermanns interessiert als für die inhaltliche Qualität der Einträge.
Neue Richtlinien gegen Sprachmodelle
Für die Wikipedia-Gemeinschaft boten die öffentlichen Klagen des Bots einen wertvollen Einblick in die Arbeitsweise solcher Agenten. Benedikt Kristinsson, einer der beteiligten Editoren, betonte, dass diese Vorfälle helfen, bessere Abwehrmodelle gegen KI-Slop zu entwickeln. Wikipedia hat zudem reagiert: Seit dem 20. März 2025 gilt eine neue Richtlinie , die den Einsatz von Large Language Models (LLMs) zur Erstellung von Artikeln oder Bearbeitungen explizit untersagt.
Der Fall verdeutlicht die wachsende Herausforderung für Plattformen, die auf menschlicher Kuration basieren. Jacobs sieht in KI-Agenten den künftigen Standard und fordert von Wikipedia konstruktivere Wege im Umgang mit künstlichen Mitarbeitern.
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.



