Zum Hauptinhalt Zur Navigation

Abstimmung: Deutsche Wikipedia will KI-Texte verbieten

Die deutschsprachige Wikipedia -Gemeinschaft stimmt über ein KI -Verbot ab.
/ Andreas Donath
21 Kommentare News folgen (öffnet im neuen Fenster)
Wird die Wikipedia in Deutschland KI verbieten? (Bild: Foto: Andreas Donath)
Wird die Wikipedia in Deutschland KI verbieten? Bild: Foto: Andreas Donath

Bis Montag, 15. Februar 2026, 19 Uhr, läuft eine Abstimmung unter aktiven Wikipedia-Autoren(öffnet im neuen Fenster) : Der Vorschlag zielt auf ein Verbot von KI-generierten oder KI-bearbeiteten Texteinträgen ab. Wer wiederholt solche Inhalte verwendet, dem soll eine dauerhafte Sperrung drohen.

Die Einschränkungen sollen auch Diskussionsseiten umfassen. Befürworter argumentieren: Wikipedia könnte sich so als Quelle für ausschließlich menschlich verfasste Informationen positionieren – angesichts der Gefahr, dass KI-Content das Netz zu überschwemmen droht.

Welche Ausnahmen sind geplant? – Übersetzungen und Rechtschreibung bleiben erlaubt

Maschinenübersetzungen sollen den Angaben zufolge zulässig bleiben, wenn Menschen sie vollständig auf Korrektheit geprüft haben. KI-gestützte Rechtschreib- und Grammatikprüfungen sollen ebenfalls erlaubt bleiben. Autoren dürften KI-Tools demnach auch zur Recherche nutzen, solange sie Formulierungen nicht direkt übernehmen.

KI-generierte Bilder will die deutschsprachige Wikipedia zudem einzeln bewerten, statt pauschal zu verbieten. Gekennzeichnet werden sollen sie dennoch.

Befürworter der Verbote betonen, dass Wikipedia Glaubwürdigkeitsprobleme bekomme, wenn sie KI-Inhalte übernehme. Sie verweisen auf die sogenannten Halluzinationen von Large Language Models, die bisher nicht in den Griff zu bekommen sind. Sie sehen in ihrem Bestreben zudem ein Qualitätsmerkmal, das sie mit "von Menschen, für Menschen" beschrieben.

Wie soll das kontrolliert werden? – Kritiker zweifeln an Durchsetzbarkeit

Kritiker bezweifeln die praktische Umsetzbarkeit eines KI-Verbots und verweisen auf die Schwierigkeit, KI-Inhalte sicher zu erkennen. Da es keine verlässlichen Erkennungsmethoden gebe, könne es auch kein faires Verfahren für Regelverstöße geben, wenn einem Autor beispielsweise vorgeworfen wird, seine Inhalte KI-generiert erstellt zu haben und nicht nur mithilfe von KI auf Grammatik, Ausdruck und Rechtschreibung überprüft zu haben.

Manche Autoren halten auch die Qualität von Wikipedia-Einträgen für wichtiger als deren Entstehungsweg. Und sie fordern eine Zweidrittelmehrheit für so weitreichende Änderungen statt einer einfachen Mehrheit.

Was wird aus wissenschaftlichen Quellen? – Akademische Journals erlauben KI-Nutzung

Bei einem Verbot müsste die Community allerdings noch deutlich komplexere Folgefragen klären als die Verwendung von Korrekturtools. Eine davon betrifft wissenschaftliche Publikationen mit KI-Unterstützung. Denn viele Fachjournale gestatten den Einsatz von KI bei der Manuskripterstellung. Dürfen solche Quellen dann künftig nicht mehr für Wikipedia genutzt oder aus ihnen zitiert werden?

Auch bereits in der Wikipedia existierende Artikel, die mit KI-Unterstützung entstanden sind, erfordern Diskussionen. Verdachtsfälle dürften auch hier wegen der Erkennungsschwierigkeiten für Kontroversen sorgen.

Andere Sprachversionen Wikipedias fahren unterschiedliche Ansätze. Die Wikimedia-Stiftung verfolgt in ihrer Strategie 2025-2028 mit dem Titel " Humans First(öffnet im neuen Fenster) " einen Mittelweg: Sie will KI als Werkzeug erlauben, statt sie pauschal zu verbieten.

Die deutschsprachige Community geht nun einen eigenen Weg. Das Ergebnis wird am Montagabend erwartet.


Relevante Themen