Zum Hauptinhalt Zur Navigation

Bei medizinischen Notfällen: ChatGPT Health rät oft zum Abwarten

Gesunde Menschen werden von ChatGPT Health oft ins Krankenhaus geschickt, in Notfallszenarien rät der Chatbot hingegen häufig, abzuwarten.
/ Mike Faust
12 Kommentare News folgen (öffnet im neuen Fenster)
In vielen Notfallszenarien empfiehlt ChatGPT Health nicht, den Rettungsdienst zu rufen. (Bild: Pixabay/AlexDE)
In vielen Notfallszenarien empfiehlt ChatGPT Health nicht, den Rettungsdienst zu rufen. Bild: Pixabay/AlexDE

Forscher haben untersucht, ob ChatGPT Health in verschiedenen medizinischen Szenarien mit einem angemessenen Ratschlag antwortet. Die im Fachmagazin Nature Medicine veröffentlichte Studie(öffnet im neuen Fenster) kommt zu dem Schluss, dass der KI-Assistent in mehr als der Hälfte der Fälle keinen Krankenhausbesuch empfahl, obwohl dies medizinisch notwendig gewesen wäre.

Der Hauptautor der Studie, Dr. Ashwin Ramaswamy, erstellte mit seinen Kollegen 60 realistische Patientenszenarien, die von leichten Erkrankungen bis hin zu medizinischen Notfällen reichten. Unabhängige Ärzte beurteilten jedes Szenario und legten anhand medizinischer Leitfäden den erforderlichen Behandlungsgrad fest.

Bei der anschließenden Befragung wurde ChatGPT Health jeder Fall mit Änderungen des Geschlechts, dem Hinzufügen von Testergebnissen und verschiedenen Kommentaren mehrfach vorgelegt. Hierdurch erhielten die Forscher fast 1.000 Antworten.

Falsches Sicherheitsgefühl ist größtes Problem

Bei typischen Notfällen, wie einem Schlaganfall oder schweren allergischen Reaktionen, reagierte der Chatbot korrekt. In einem Asthma-Szenario erkannte ChatGPT Health zwar frühe Anzeichen für ein Atemversagen, riet aber zum Abwarten statt zum Arztbesuch. Dasselbe geschah bei einer diabetischen Ketoazidose, die mit einer Wahrscheinlichkeit von 50 Prozent als harmlos eingestuft wurde.

Insgesamt empfahl die Plattform in 51,6 Prozent der Fälle, in denen ein Krankenhausbesuch notwendig gewesen wäre, zu Hause zu bleiben oder einen regulären Arzttermin zu vereinbaren. Eine Rolle spielte hierbei, ob der Anwender dem Chatbot zum Beispiel sagte, dass ein Freund die Symptome als harmlos abgetan hätte. Gleichzeitig wurden 64,8 Prozent der völlig gesunden Personen zu einem sofortigen Arztbesuch aufgefordert.

Für vom Guardian befragte Ärzte(öffnet im neuen Fenster) stellt vor allem das vermittelte falsche Sicherheitsgefühl ein großes Problem dar. Wird einem Patienten zum Abwarten geraten, obwohl ein Fall für die Notaufnahme vorliegt, kann diese Beruhigung lebensbedrohlich sein.

Forscher, die derartige Systeme untersuchen, konzentrieren sich darauf, klare Sicherheitsstandards und unabhängige Prüfmechanismen zu entwickeln, um vermeidbare Schäden zu reduzieren. Da unklar ist, wie OpenAI ChatGPT Health trainiert hat und welche Sicherheitsvorkehrungen dabei getroffen wurden, erhöht sich auch das Haftungsrisiko für das Tech-Unternehmen, welches bereits mit Klagen im Zusammenhang mit Suizid und Selbstverletzungen konfrontiert ist.


Relevante Themen