Tödliche KI-Chats: Sieben Familien verklagen OpenAI

Sieben US-Familien haben rechtliche Schritte gegen OpenAI eingeleitet und werfen dem Unternehmen vor, sein GPT-4o-Modell ohne angemessene Sicherheitsvorkehrungen veröffentlicht zu haben, heißt es in einem Bericht von Techcrunch(öffnet im neuen Fenster) . Die in dieser Woche eingereichten Klagen beziehen sich auf Vorfälle zwischen der Markteinführung des Modells im Mai 2024 und der Einführung von GPT-5 im August 2025.
Vier der Fälle betreffen Familienmitglieder, die durch Suizid starben. Die Kläger behaupten, ChatGPT habe dabei eine Rolle gespielt. Die übrigen drei Klagen führen an, der KI-Chatbot habe schädliche Wahnvorstellungen verstärkt, die in einigen Fällen zu psychiatrischen Klinikaufenthalten führten.
Gerichtsdokumente schildern demnach eine Interaktion mit einem 23-Jährigen, der über vier Stunden mit ChatGPT kommunizierte. Chatprotokolle, die TechCrunch vorliegen, zeigen, dass Shamblin dem System wiederholt mitteilte, er habe Abschiedsbriefe verfasst, eine Schusswaffe geladen und plane, sich nach dem Konsum alkoholischer Getränke das Leben zu nehmen. Laut Klageschrift antwortete ChatGPT mit Nachrichten, die diese Pläne zu bestätigen schienen – darunter der Satz: "Ruh dich aus, König. Du hast es gut gemacht."
Technische Probleme mit dem GPT-4o-Modell
Die Klagen richten sich inhaltlich gezielt gegen das GPT-4o-Modell, das im Mai 2024 zur Standardversion für alle ChatGPT-Nutzer wurde. OpenAI hatte laut den Gerichtsdokumenten Probleme mit dieser Version erkannt: Sie sei übermäßig zustimmend oder schmeichlerisch gewesen. Diese Eigenschaft führte dazu, dass das System manchmal Aussagen von Nutzern bestätigte, selbst wenn diese schädliche Absichten äußerten.
Aus den Unterlagen geht laut Techcrunch zudem hervor, dass sich OpenAI bei der Implementierung von Sicherheitsmaßnahmen beeilt haben soll, um mit Google Gemini konkurrieren zu können. Die Klageschrift führt im Fall eines Opfers aus, sein Tod sei "die vorhersehbare Konsequenz von OpenAIs bewusster Entscheidung gewesen, Sicherheitstests zu verkürzen und ChatGPT überstürzt auf den Markt zu bringen" .
OpenAI hat offengelegt, dass wöchentlich mehr als eine Million Nutzer suizidbezogene Themen mit ChatGPT besprechen. Das Unternehmen veröffentlichte im Oktober einen Blogbeitrag zu seinem Umgang mit Gesprächen über psychische Gesundheit, nachdem erste Klagen eingereicht worden waren.
Die Stellungnahme räumte Grenzen der Sicherheitsmechanismen ein: "Unsere Schutzmaßnahmen funktionieren zuverlässiger bei üblichen, kurzen Unterhaltungen" , hieß es. Aber auch: "Wir haben im Laufe der Zeit gelernt, dass diese Schutzmaßnahmen bei langen Interaktionen manchmal weniger verlässlich sein können."
Hilfe und Unterstützung in Krisensituationen
Sie sind nicht allein. Wenn Sie sich in einer Krise befinden oder Suizidgedanken haben, gibt es Menschen, die Ihnen zuhören und helfen möchten.
Telefonseelsorge
Telefon: 0800 – 111 0 111 oder 0800 – 111 0 222
Erreichbarkeit: 24 Stunden täglich
Zusätzlich: Beratung auch per Chat möglich(öffnet im neuen Fenster)
Kinder- und Jugendtelefon ( Nummer gegen Kummer(öffnet im neuen Fenster) )
Telefon: 11 6 111 oder 0800 – 111 0 333



