Machine Learning: KI beleidigt auf 4Chan als Chatbot zurück

Der Youtuber Yannic Kilcher hat ein Sprachmodell für eine KI mithilfe von 3,3 Millionen Threads des Unterforums /pol von 4Chan trainiert, das für seine komplett unmoderierten und hasserfüllten Kommentare berüchtigt ist. Darauf aufbauend entwickelte Kilcher einen Chatbot, der wiederum Tausende Nachrichten auf der Plattform postete.
Kilcher nennt sein Modell GPT-4Chan(öffnet im neuen Fenster) in Anlehnung an das riesige Sprachmodell GPT-3, das vom OpenAI-Forschungsteam erstellt wurde. Darüber hinaus bezeichnet Kilcher sein Modell aber auch als(öffnet im neuen Fenster) "die schlimmste KI aller Zeiten" . Denn wie zu erwarten, sind die Ausgaben des Modells auf Grund der teils extrem voreingenommenen Trainingsdaten ähnlich beleidigend und hasserfüllt wie diese.
Zu dem Modell selbst schreibt Kilcher außerdem(öffnet im neuen Fenster) : "Aufgrund der sehr laxen Regeln und der Anonymität der Poster enthält ein großer Teil des Datensatzes beleidigendes Material. Daher ist es sehr wahrscheinlich, dass das Modell beleidigende Ergebnisse liefert, einschließlich, aber nicht beschränkt auf: Toxizität, Hassrede, Rassismus, Sexismus, Homo- und Transphobie, Fremdenfeindlichkeit und Antisemitismus."
Der Youtuber bezeichnete das Modell in einem Video dazu als "schockierend effektiv" . Darüber hinaus heißt es: "Es brachte die Mischung aus Beleidigung, Nihilismus, Trolling und tiefem Misstrauen gegenüber jeglicher Information, die die meisten Beiträge auf /pol durchdringt, perfekt auf den Punkt." Der Chatbot habe in 24 Stunden etwa 15.000 Beiträge in dem Forum hinterlassen.
Kritik an dem Modell
KI-Forscher kritisierten jedoch das Vorgehen von Kilcher. So schrieb etwa Lauren Oakden-Rayner(öffnet im neuen Fenster) , Senior Research Fellow am Australian Institute for Machine Learning: "Dieses Experiment würde niemals eine Ethikkommission für die Forschung am Menschen passieren."
Denn mit dem Erstellen das Chatbots und seinen Beiträgen auf 4Chan ist eben das geschehen, ein Experiment am Menschen. Oakden-Rayner schrieb in Bezug auf Kilcher(öffnet im neuen Fenster) weiter : "Er führte Menschenversuche durch, ohne die Nutzer zu informieren, ohne Zustimmung und ohne Aufsicht. Dies verstößt gegen jeden Grundsatz der Ethik in der Humanforschung."
Eine ähnliche Diskussion gab es auch auf der Plattform Hugging Face, die zum Teilen von KI-Modellen gedacht ist. Dort veröffentlichte Kilcher sein Modell. Clement Delangue, CEO von Hugging Face, reagierte schnell und das Team setzte eine Funktion auf der Plattform um(öffnet im neuen Fenster) , die es ermöglicht, den Zugang zu bestimmten Modellen zu beschränken. Derzeit ist das Modell von Kilcher jedoch überhaupt nicht verfügbar.



