Bei medizinischen Notfällen: ChatGPT Health rät oft zum Abwarten
Forscher haben untersucht, ob ChatGPT Health in verschiedenen medizinischen Szenarien mit einem angemessenen Ratschlag antwortet. Die im Fachmagazin Nature Medicine veröffentlichte Studie(öffnet im neuen Fenster) kommt zu dem Schluss, dass der KI-Assistent in mehr als der Hälfte der Fälle keinen Krankenhausbesuch empfahl, obwohl dies medizinisch notwendig gewesen wäre.
Der Hauptautor der Studie, Dr. Ashwin Ramaswamy, erstellte mit seinen Kollegen 60 realistische Patientenszenarien, die von leichten Erkrankungen bis hin zu medizinischen Notfällen reichten. Unabhängige Ärzte beurteilten jedes Szenario und legten anhand medizinischer Leitfäden den erforderlichen Behandlungsgrad fest.
Bei der anschließenden Befragung wurde ChatGPT Health jeder Fall mit Änderungen des Geschlechts, dem Hinzufügen von Testergebnissen und verschiedenen Kommentaren mehrfach vorgelegt. Hierdurch erhielten die Forscher fast 1.000 Antworten.
Falsches Sicherheitsgefühl ist größtes Problem
Bei typischen Notfällen, wie einem Schlaganfall oder schweren allergischen Reaktionen, reagierte der Chatbot korrekt. In einem Asthma-Szenario erkannte ChatGPT Health zwar frühe Anzeichen für ein Atemversagen, riet aber zum Abwarten statt zum Arztbesuch. Dasselbe geschah bei einer diabetischen Ketoazidose, die mit einer Wahrscheinlichkeit von 50 Prozent als harmlos eingestuft wurde.
Insgesamt empfahl die Plattform in 51,6 Prozent der Fälle, in denen ein Krankenhausbesuch notwendig gewesen wäre, zu Hause zu bleiben oder einen regulären Arzttermin zu vereinbaren. Eine Rolle spielte hierbei, ob der Anwender dem Chatbot zum Beispiel sagte, dass ein Freund die Symptome als harmlos abgetan hätte. Gleichzeitig wurden 64,8 Prozent der völlig gesunden Personen zu einem sofortigen Arztbesuch aufgefordert.
Für vom Guardian befragte Ärzte(öffnet im neuen Fenster) stellt vor allem das vermittelte falsche Sicherheitsgefühl ein großes Problem dar. Wird einem Patienten zum Abwarten geraten, obwohl ein Fall für die Notaufnahme vorliegt, kann diese Beruhigung lebensbedrohlich sein.
Forscher, die derartige Systeme untersuchen, konzentrieren sich darauf, klare Sicherheitsstandards und unabhängige Prüfmechanismen zu entwickeln, um vermeidbare Schäden zu reduzieren. Da unklar ist, wie OpenAI ChatGPT Health trainiert hat und welche Sicherheitsvorkehrungen dabei getroffen wurden, erhöht sich auch das Haftungsrisiko für das Tech-Unternehmen, welches bereits mit Klagen im Zusammenhang mit Suizid und Selbstverletzungen konfrontiert ist.
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.