Über die Gefahr, der KI medizinische Daten zu geben
Golem: Wie bewerten Sie die psychologischen Risiken, wenn Menschen ihre tiefsten Probleme und Traumata mit einer KI teilen, die weder therapeutische Verantwortung noch ein echtes Verständnis für menschliche Emotionen hat?
Sebastian Krapp: Die Frage und ihre Beantwortung finde ich komplex, weil sie mehrere wichtige Aspekte betrifft: Erst mal, es geht ja um Menschen, die sich oft angesichts dieser Probleme in einer besonders vulnerablen und bedürftigen Situation befinden. Darauf bin ich als Therapeut natürlich von Anfang an eingestellt und durch die Ausbildung und Erfahrung mehr oder weniger gut vorbereitet.
Golem: KI-Systeme wie ChatGPT sind ja Allzweckwerkzeuge. Macht genau das die Lage riskant?
Sebastian Krapp: Genau. Aktuell weitverbreitete KI-Systeme sollen ja als LLMs quasi Alleskönner beziehungsweise Alleswisser sein und mir das Rezept für die beste Pizza aus den verfügbaren Zutaten in meinem Kühlschrank genauso bereitstellen können wie das Erfolg versprechende Bewerbungsschreiben für eine gewünschte Stelle. Und mir dann noch erklären, woher meine traurige Stimmung kommt, ob das schon eine Depression ist und was ich dagegen tun sollte.
Golem: In der Therapie gibt es ja klare Regeln. Wie groß ist der Unterschied zur KI?
Sebastian Krapp: Für Therapeutinnen und Ärzte gibt es klare, gesetzlich und standesrechtlich verankerte Regeln zu Schweigepflicht, Datenschutz, Ethik und so weiter, welche eingehalten werden müssen. Verstöße dagegen sind sanktioniert und die Handelnden müssen sich dafür verantworten.
All das ist bei KIs bisher ungeregelt, und ein Mensch mit einer chronischen psychischen Krankheit stünde letztlich juristisch aktuell meist dem Produkt einer Firma aus dem Ausland gegenüber, die wohl kaum für etwaiges Fehlverhalten haftbar zu machen wäre. Wenn ich also mit ChatGPT interagiere, dann können potenziell alle meine persönlichen und medizinischen Daten gespeichert und genutzt werden. Das ist ein deutlicher Unterschied, finde ich.
Golem: Und was ist mit der Empathie-Frage, kann eine KI überhaupt Gefühle verstehen?
Sebastian Krapp: Das ist der schwierigste Aspekt und wird natürlich im Moment in den Medien und auch in der Wissenschaft bereits heiß diskutiert: Kann eine KI empathisch sein? Zuletzt gab es Artikel über verschiedene Versuche mit KI-Chatbots – manche mit positiven, andere mit negativen Ergebnissen.
Eines jedoch bleibt: Es ist ja keine Beziehung zweier (quasi-)menschlicher Subjekte, sondern eine Simulation dieser Beziehung. Die therapeutische Beziehung ist ja auch eine asymmetrische, in der normalerweise die Patienten viel weniger über ihr Gegenüber wissen als umgekehrt.
Emotionale Abhängigkeit
Trotzdem bin ich als Therapeut ein Mensch, der Gefühle wie Angst, Trauer oder Wut auch selbst spüren kann. In einem jüngsten Versuch haben Forscher aus Zürich ChatGPT mit emotionalen Inhalten konfrontiert.
Golem: KI-gestützte Chatbots stehen rund um die Uhr zur Verfügung und wirken oft verständnisvoll. Besteht aus Ihrer Sicht die Gefahr, dass Menschen dadurch in eine emotionale Abhängigkeit von solchen Systemen geraten?
Sebastian Krapp: Diese Gefahr besteht durchaus, und es gibt bereits eine Reihe von Berichten, in denen das passiert sein soll. Auch die Meldungen, dass sich Nutzerinnen und Nutzer in KI-Chatbots verliebt haben, erscheinen mir nicht unplausibel.



