Zum Hauptinhalt Zur Navigation

Künstliche Intelligenz: OpenAI führt Altersschätzung für ChatGPT ein

OpenAI rollt ein Modell zur Altersschätzung aus, um Minderjährige vor schädlichen Inhalten wie Gewalt oder Erotik zu schützen.
/ Nils Matthiesen
5 Kommentare News folgen (öffnet im neuen Fenster)
OpenAI schätzt das Alter der Nutzer. (Bild: KIRILL KUDRYAVTSEV/AFP via Getty Images)
OpenAI schätzt das Alter der Nutzer. Bild: KIRILL KUDRYAVTSEV/AFP via Getty Images

OpenAI hat mit dem globalen Roll-out eines Modells zur Altersschätzung für ChatGPT begonnen, berichtet The Register(öffnet im neuen Fenster) . Das System soll automatisch erkennen, ob Nutzer minderjährig sind, um den Zugriff auf potenziell schädliche oder sensible Inhalte einzuschränken. Die Einführung ist Teil des im November 2025 vorgestellten "Teen Safety Blueprint" sowie der "Under-18 Principles for Model Behavior" . Laut OpenAI erreicht die Funktion wohl in wenigen Wochen auch die Europäische Union.

Der Schritt erfolgt vor dem Hintergrund zunehmenden öffentlichen Drucks. Chatbots stehen weltweit in der Kritik, nachdem Vorfälle bis hin zu Suiziden mit der Nutzung von KI-Diensten in Verbindung gebracht wurden. Zudem plant OpenAI die Einführung von Werbung sowie Erotik-Inhalten, was eine strikte Trennung der Zielgruppen erforderlich macht. Schätzungen zufolge nutzen bereits über 50 Prozent der US-Jugendlichen über 13 Jahren generative KI.

Verhaltensanalyse statt Ausweiskontrolle

Das System unterscheidet sich von einer klassischen Altersverifizierung per Dokument oder biometrischer Gesichtsanalyse. Stattdessen nutzt OpenAI eine KI-basierte Vorhersage, die auf verschiedenen Signalen basiert. Das Modell analysiert unter anderem das Alter des Accounts, die typischen Nutzungszeiten, allgemeine Nutzungsmuster über einen längeren Zeitraum sowie das vom Nutzer selbst angegebene Alter.

Stuft das System einen Nutzer als unter 18 Jahre alt ein, aktiviert ChatGPT zusätzliche Sicherheitseinstellungen. Diese sollen die Konfrontation mit grafischer Gewalt, gefährlichen viralen Challenges, sexuellem oder romantischem Rollenspiel sowie Inhalten zu Selbstverletzung und ungesunden Körperbildern reduzieren.

Kritik an Genauigkeit und Datenschutz

Sollte die KI einen Erwachsenen fälschlicherweise als minderjährig einstufen, müssen Nutzer ihr Alter manuell nachweisen. Dies geschieht über den Drittanbieter Persona per Live-Selfie oder Ausweisfoto. Persona gibt an, diese Daten nicht zu verkaufen oder zu teilen. Kritik kommt unter anderem von der Electronic Frontier Foundation (EFF). Deren Engineering-Direktorin Alexis Hancock warnt, dass Nutzer durch Fehlprognosen gezwungen werden, private Daten an Drittfirmen weiterzugeben.

Mozilla äußert zudem Bedenken hinsichtlich der Wirksamkeit und des Datenschutzes dieser Systeme. Technische Analysen aus Australien zeigen, dass die Genauigkeit schwankt: Während im Durchschnitt hohe Werte erreicht werden, ist die Fehlerquote bei Frauen sowie bei Personen mit dunkleren Hauttönen signifikant höher. Experten führen dies auf eine einseitige Auswahl der Trainingsdaten zurück, die oft nicht die volle Bandbreite menschlicher Physiognomien repräsentieren.


Relevante Themen