Falsche Verdächtigung: ChatGPT beschuldigt Professor der sexuellen Belästigung

ChatGPT kann wichtige Fakten mit großem Geschick verdrehen und führt sogar einen gefälschten Artikel als Beweis an. Das musste ein Juraprofessor erfahren.

Artikel veröffentlicht am ,
Generative KI aus der Hölle?
Generative KI aus der Hölle? (Bild: Midjourney/Golem.de)

Ein Skandal um ChatGPT und seine Anschuldigung der sexuellen Belästigung gegen den Juraprofessor Jonathan Turley hat die potenziellen Fallstricke beim Einsatz von KI-Chatbots zur Generierung von Informationen aufgezeigt, wie die Washington Post berichtet.

Im Rahmen einer Forschungsstudie hatte ein Anwaltskollege in Kalifornien ChatGPT gebeten, eine Liste von Juristen zu erstellen, die jemanden sexuell belästigt hatten. Turleys Name wurde in der Liste aufgeführt, und ChatGPT behauptete, dass Turley während einer Klassenfahrt nach Alaska sexuell anzügliche Bemerkungen gemacht und versucht habe, eine Studentin zu berühren, und berief sich dabei auf einen Artikel in der Washington Post vom März 2018 als Quelle der Informationen.

Es stellte sich jedoch heraus, dass ein solcher Artikel nicht existierte, es nie eine Klassenfahrt nach Alaska gegeben hatte und Turley bestritt, jemals eine Schülerin belästigt zu haben.

KI-Chatbots schöpfen aus einem riesigen Pool von Online-Inhalten, die oft aus Quellen wie Wikipedia und Reddit stammen, um plausibel klingende Antworten auf fast jede Frage zusammenzustellen. Doch nur weil sie gut vorhersagen können, welche Wörter wahrscheinlich zusammen vorkommen, heißt das nicht, dass die daraus resultierenden Sätze immer wahr sind.

Wer ist verantwortlich, wenn sich eine KI verselbstständigt?

Kate Crawford, Professorin an der University of Southern California in Annenberg und leitende Forscherin bei Microsoft Research, hat gegenüber der Washington Post vor den Gefahren von KI-Chatbots gewarnt: "Da diese Systeme so selbstbewusst antworten, ist es sehr verführerisch anzunehmen, dass sie alles können, und es ist sehr schwierig, zwischen Fakten und Unwahrheiten zu unterscheiden."

Der Vorfall hat auch die Frage aufgeworfen, wer verantwortlich ist, wenn KI-Chatbots ungenaue Informationen erzeugen oder verbreiten. Eugene Volokh, Juraprofessor an der University of California in Los Angeles, führte die Studie durch, in der Turley genannt wurde, berichtet die Washington Post. Volokh sagte der Zeitung, dass die steigende Popularität von Chatbots ein entscheidender Grund dafür sei, dass dringend geklärt werden müsse, wer verantwortlich sei, wenn die KI-Chatbots falsche Informationen verbreiteten.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


amagol 10. Apr 2023 / Themenstart

Selbst wenn die KI so gut ist wie ein Mensch - wer traegt die Verantwortung fuer Fehler...

Immenburg 09. Apr 2023 / Themenstart

Nein, etwas muss keine Intelligenz besitzen, um Sätze bilden zu können. Sätze können von...

Nutzer-name 08. Apr 2023 / Themenstart

Mir tun deine Kinder auch leid. Scheinbar werden die von dir sich selbst überlassen. Es...

ohinrichs 07. Apr 2023 / Themenstart

Die KI verarscht uns doch nur. Und lacht sich ins Fäustchen. Bewusste Verbreitung von...

Kommentieren



Aktuell auf der Startseite von Golem.de
Forschung
Erstes Röntgenbild von einem einzelnen Atom

Bisher war die Röntgenemission eines einzelnen Atoms zu schwach, um es auf einer Röntgenaufnahme abzulichten. Mit einer neuen Technik geht das jetzt.

Forschung: Erstes Röntgenbild von einem einzelnen Atom
Artikel
  1. Streaming: Verbraucherschützer warnen vor Netflix-Phishing
    Streaming
    Verbraucherschützer warnen vor Netflix-Phishing

    Phishing-Nachrichten im Namen von Netflix sind nichts Neues - in der aktuellen Verwirrung rund um das Kontensharing könnten sie aber einfacher verfangen.

  2. US Air Force: KI-Drohne bringt in Gedankenexperiment Befehlshaber um
    US Air Force  
    KI-Drohne bringt in Gedankenexperiment Befehlshaber um

    Die US Air Force und der verantwortliche Offizier stellen klar, dass es sich nur um ein Gedankenspiel handelt - und keinen echten Test.

  3. Chatsoftware: Microsoft will Teams zum Discord-Konkurrenten machen
    Chatsoftware
    Microsoft will Teams zum Discord-Konkurrenten machen

    Microsoft bringt das Community-Feature in Teams für Windows 11. Außerdem können User mittels KI Bilder und Ankündigungskarten erstellen.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Tiefstpreise: AMD Ryzen 9 7900X3D 534€, KFA2 RTX 3060 Ti 329,99€, Kingston Fury SSD 2TB (PS5-komp.) 129,91€ • Sony Days of Play: PS5-Spiele & Zubehör bis -70% • Roccat PC-Zubehör bis -50% • AVM Modems & Repeater bis -36% • Sony Deals Week [Werbung]
    •  /