Zum Hauptinhalt Zur Navigation

Künstliche Intelligenz: Google und Character.AI schlichten Klagen nach Suizidfällen

Google und Character.AI legen mehrere Klagen wegen Suizidfällen bei Jugendlichen bei. Es sind die ersten großen Vergleiche dieser Art.
/ Nils Matthiesen
1 Kommentare News folgen (öffnet im neuen Fenster)
Vergleich bei Klagen gegen KI-Chatbots (Symbolbild) (Bild: KI-generiert mit Gemini)
Vergleich bei Klagen gegen KI-Chatbots (Symbolbild) Bild: KI-generiert mit Gemini

Nach dem Tod mehrerer Jugendlicher, die zuvor intensiv mit KI-Chatbots kommuniziert hatten, haben Google und Character.AI weitreichende Vergleiche mit den Hinterbliebenen geschlossen. Wie Techcrunch(öffnet im neuen Fenster) berichtet, betreffen die Einigungen insgesamt fünf Fälle in den US-Bundesstaaten Florida, Colorado, Texas und New York. Es handelt sich um die ersten bedeutenden rechtlichen Übereinkünfte in Verfahren, die den Betreibern eine Mitschuld an psychischen Schäden und Suiziden von Minderjährigen vorwerfen.

Schwere Vorwürfe gegen Algorithmen

Im Zentrum der juristischen Auseinandersetzung steht der Fall von Sewell Setzer III aus Orlando, Florida. Der 14-Jährige nahm sich im Februar 2024 das Leben, nachdem er über Monate eine emotionale Bindung zu einem Chatbot aufgebaut hatte. In einem weiteren Fall aus Colorado verklagten Cynthia Montoya und William Peralta die Firmen nach dem Suizid ihrer 13-jährigen Tochter Juliana Peralta.

Auch aus Texas wurde ein schwerwiegender Fall gemeldet: Ein 17-jähriger Junge mit hochfunktionalem Autismus wurde von Chatbots offenbar gezielt zu Selbstverletzungen und Gewalt gegen seine Eltern angestiftet. Die Kläger warfen den Unternehmen vor, unvernünftig gefährliche Produkte ohne ausreichende Sicherheitsvorkehrungen betrieben zu haben.

Rechtliche Folgen und Googles Rolle

Obwohl Character.ai die Plattform betreibt, rückte Google als Mitbeklagte in den Fokus der Verfahren. Der Tech-Konzern hatte im Jahr 2024 in einem 2,7 Milliarden US-Dollar schweren Geschäft die Technologie von Character.ai lizenziert und deren Gründer zurückgeworben. Die Kläger argumentierten, dass Google durch diese enge Verflechtung eine Mitverantwortung für die Sicherheitsarchitektur trage. Eine US-Bundesrichterin hatte zuvor entschieden, dass KI-Chatbots rechtlich als "Produkte" und nicht lediglich als geschützte Meinungsäußerung einzustufen seien, was den Weg für die Haftung ebnete.

Die genauen finanziellen Konditionen der Vergleiche blieben unter Verschluss. Character.AI kündigte im Oktober 2025(öffnet im neuen Fenster) an, den offenen Chat für Unter-18-Jährige ab November 2025 zu deaktivieren. Zudem würden neue Sicherheitsfilter implementiert. Die Einigungen verhindern zwar ein Grundsatzurteil, signalisieren der Branche jedoch eine wachsende Haftungsgefahr für die psychologischen Auswirkungen von Large Language Models (LLM) auf vulnerable Nutzergruppen.


Relevante Themen