Zum Hauptinhalt Zur Navigation

OpenAI: Menschen behandeln KI bereits wie Menschen

In internen Tests konnte OpenAI feststellen, dass Menschen Anzeichen von Zuneigung zum KI -Modell GPT-4o zeigen.
/ Oliver Nickel
24 Kommentare News folgen (öffnet im neuen Fenster)
GPT4-o ist mit Sprachausgabe schon Menschen ähnlich. (Bild: KI-generiert durch Copilot Designer/Dall-E)
GPT4-o ist mit Sprachausgabe schon Menschen ähnlich. Bild: KI-generiert durch Copilot Designer/Dall-E

Emotionale Beziehungen zu KIs aufbauen: Das ist nicht mehr nur unbedingt ein Szenario aus Science-Fiction-Filmen. Das KI-Unternehmen OpenAI konnte ein ähnliches Verhalten bei internen Tests feststellen(öffnet im neuen Fenster) . Einige Personen interagierten mit dem sprechenden GPT-4o bereits so, als würden sie mit einem Menschen reden. Das Unternehmen resümiert: "Während der frühen Tests, einschließlich Red-Teaming und internen Benutzertests, beobachteten wir User, wie sie mit Sprachmodellen in einer Weise reden, die auf emotionale Verbindung mit dem Modell hinweist."

Solche Hinweise sind in den ersten Tests noch relativ subtil. Laut OpenAI regen sie aber zu weiteren Untersuchungen an. Soziale Beziehungen mit einem KI-Modell könnten etwa Menschen helfen, denen soziale Interaktionen mit anderen Menschen eher schwerfallen und die dadurch oft allein sind. Andererseits könnten solche Interaktionen auch gesunden Beziehungen zwischen Menschen schaden.

Maßnahmen gegen Missbrauch

"Wir möchten das Potenzial für emotionale Abhängigkeit weiter untersuchen und Möglichkeiten aufzeigen, wie eine tiefere Integration der zahlreichen Funktionen unserer Modelle und Systeme in die Audiomodalität das Verhalten beeinflussen kann" , schreibt OpenAI. Dabei sei es vor allem wichtig, auf die Veränderung von Konversationen zwischen Mensch und Maschine zu achten. Da GPT-4o für die einfache Interaktion erstellt wurde, können menschliche User etwa stets das Wort übernehmen, während das Modell nur zuhört. So funktioniert die Kommunikation zwischen zwei Menschen aber in der Praxis nicht.

OpenAI hat während der Testphase weitere Herausforderungen gefunden. So sind einige Sprachen in GPT-4o unterrepräsentiert, was gewisse Bevölkerungsgruppen systematisch ausschließen kann. Allerdings sei das Modell in diesem Punkt bereits wesentlich besser als Vorgängerprogramme. Dabei sollen in Zukunft auch problematische Inhalte besser gefiltert werden, sodass die KI dafür schlechter benutzt werden kann. Das sind beispielsweise sexuelle Inhalte mit Minderjährigen, Selbstverletzung oder Propagandainhalte.


Relevante Themen