"Mir reicht's": Curl-Entwickler spricht Machtwort gegen "KI-Schrott"

Der Open-Source-Entwickler Daniel Stenberg kämpft seit Jahren gegen KI-generierte Bug-Reports für sein bekanntes Projekt Curl und hat sich in der Vergangenheit schon mehrfach entrüstet über entsprechende Einreichungen geäußert. In einem Beitrag auf Linkedin(öffnet im neuen Fenster) kündigt er infolge eines aktuellen Vorfalls nun drastische Maßnahmen gegen Nutzer an, die ihren "KI-Schrott" ungeprüft als Fehlerberichte einreichen.
"Das war's. Mir reicht's. Ich spreche ein Machtwort zu diesem Irrsinn" , schreibt Stenberg. Wer auf Hackerone einen Bug-Report zu Curl einreiche, müsse künftig auf die Frage antworten, ob für das Auffinden des gemeldeten Problems oder die Erstellung der Meldung eine künstliche Intelligenz verwendet worden sei. Im Bug-Report-Formular gibt es dafür eine neue Checkbox(öffnet im neuen Fenster) .
Wer die Frage mit Ja beantwortet, muss sich daraufhin weiteren Fragen stellen. Stenberg spricht von einem "Strom von Folgefragen zum Nachweis der tatsächlichen Intelligenz" . Erst wenn dieser Test bestanden ist, will sich der Entwickler tatsächlich mit dem gemeldeten Problem befassen. Wie Stenberg vorgeht, wenn der Nutzer mit Nein antwortet, aber dennoch KI verwendet hat, ist jedoch unklar.
Falsche Bug-Reports belasten Entwickler
Nutzer, die für eingereichte Bug-Reports offenkundig KI-Tools genutzt haben, sollen derweil sofort gesperrt werden. "Eine Grenze ist überschritten. Wir werden effektiv DDoS-attackiert. Wenn wir könnten, würden wir ihnen diese Verschwendung unserer Zeit in Rechnung stellen" , argumentiert Stenberg. Zudem betont er, er habe bisher noch keinen einzigen brauchbaren Security-Report gesehen, der mithilfe von KI erstellt worden sei.
Auslöser für Stenbergs jüngste Aufregung ist ein am 4. Mai eingereichter Bug-Report auf Hackerone(öffnet im neuen Fenster) , der sich auf eine Funktion bezieht, die im Code des Projektes gar nicht existiert. "Das nenne ich KI-Schrott" , so die Reaktion des Curl-Entwicklers.
Stenberg hatte sich erstmals im Januar 2024 frustriert über KI-generierte Fehlerberichte geäußert. Aber auch andere Open-Source-Projekte und deren Entwickler leiden unter den Folgen falscher KI-Bug-Reports in großen Mengen. Sie rauben nicht nur wertvolle Entwicklungsressourcen, sondern setzen die Entwickler auch Verwirrung, Stress und Frustration aus, was letztendlich zu einem Burn-out beitragen kann.



