KI verändert Sprachmuster: Erkennung KI-generierter Beiträge wird immer schwieriger

Die Moderatoren großer Subreddits stehen einem massiven Anstieg an KI-generierten Inhalten gegenüber. Wie Wired berichtet(öffnet im neuen Fenster) , kommen mit KI überarbeitete Beiträge sowie Ausdrucksweisen hinzu, bei denen Menschen typische KI-Formulierungen übernehmen und in ihren eigenen Sprachgebrauch integrieren.
Gefälschte Beiträge thematisieren oft typische Rage-Bait-Szenarien, mit denen gezielt Empörung und somit Klicks und Kommentare erzielt werden sollen. Diese treten sehr häufig auf und machen laut einer Moderatorin, die mit Wired sprach, möglicherweise bis zu 50 Prozent aller Posts auf Reddit aus.
Intuition dominiert Suche nach KI-Inhalten
Die Plattform laufe damit Gefahr, dass "die KI, die KI füttert" und das Vertrauen der Nutzer in die Echtheit von Beiträgen schwindet. Dabei erzeuge allein die Möglichkeit, dass ein Inhalt mit KI erstellt worden sei, Misstrauen. Die Moderatoren investierten zudem viel Zeit und Anstrengungen in die Bearbeitung von Beiträgen, nur um später festzustellen, dass ein Beitrag erfunden gewesen sei, heißt es weiter.
Bei der Erkennung von KI-generierten Inhalten verlassen sich die Moderatoren auf ihre Intuition und suchen nach Anzeichen, wie zum Beispiel der exakten Wiederholung des Titels im Text oder grammatikalischen Auffälligkeiten im Vergleich zu früheren Beiträgen eines Nutzers.
Mensch-KI-Feedback-Schleife
Da KIs aber auch auf Basis von Reddit-Inhalten trainiert werden, entstehe eine Art Feedback-Schleife, durch die sich die KI- und menschliche Beiträge immer mehr annähern. Aber auch Menschen übernähmen immer mehr die Formulierungen von KIs, auch wenn sie diese für einen Beitrag gar nicht verwendet hätten.
In Subreddits mit politischen Inhalten erschwere zudem die automatisierte Verbreitung von Desinformation die Arbeit der Moderatoren noch zusätzlich, so Wired.
40 Millionen entfernte Beiträge in einem halben Jahr
Ein Pressesprecher von Reddit sagte Wired, dass manipulierte Inhalte und unauthentisches Verhalten verboten und in der ersten Hälfte des Jahres 2025 über 40 Millionen manipulierte Inhalte entfernt worden seien. Klar gekennzeichnete KI-Inhalte sind jedoch im Allgemeinen erlaubt, sofern sie den Community-Regeln entsprächen.
Reddit-Moderatoren haben nicht nur Schwierigkeiten mit externen KIs. Auch das KI-Tool Reddit-Answers gibt teils gefährliche Antworten aus und Moderatoren fehlt die Möglichkeit, diese auszublenden.