Wege zu einem bewussteren Umgang
Ein bewussterer Umgang mit KI beginnt bei der Entwicklung einer kritischen Nutzungskompetenz. Nutzer sollten die Ausgaben von ChatGPT stets als Entwürfe betrachten und mit verlässlichen Quellen abgleichen.
Präzise formulierte Anfragen können die Wahrscheinlichkeit von Halluzinationen verringern, eingeblendete Warnhinweise oder geäußerte Zweifel der KI sind ernst zu nehmen. Zudem ist es wichtig, das eigene Urteilsvermögen zu schärfen: Ein Verständnis für den Automations-Bias hilft, Antworten nicht unkritisch zu übernehmen.
Auch Datenschutz und Sicherheit sind zentrale Aspekte eines verantwortungsvollen Umgangs. Informationen wie Gesundheitsdaten oder Passwörter gehören nicht in öffentliche Chatbots, auch Unternehmen sollten hier klare interne Richtlinien sowie Data-Loss-Prevention-Systeme implementieren.
Wo möglich, lohnt sich eine vertragliche Absicherung: Enterprise-Versionen bieten erweiterte Kontrollmöglichkeiten, entsprechende Vereinbarungen sollten die Speicherung und Löschung von Daten regeln. Darüber hinaus sind branchenspezifische rechtliche Vorgaben wie die DSGVO oder medizinische Geheimhaltung unbedingt einzuhalten.
Im Bereich der mentalen Gesundheit ist zu sagen: KI-gestützte Chatbots können zwar informieren, ersetzen jedoch keine Therapie und sollten Betroffene daher an Beratungsstellen oder Hotlines verweisen. Bei Jugendlichen tragen Eltern und Erziehungsberechtigte Verantwortung, die Nutzung zu begleiten und auf Datenschutzmechanismen zu achten. Studien fordern zudem klare Leitlinien für KI-gestützte psychische Unterstützung sowie unabhängige Forschung zu den damit verbundenen Risiken.
Darüber hinaus gilt es, potenzielle Angriffe und Missbrauchsformen zu erkennen. Anbieter setzen hier auf mehrstufige Sicherheitsmaßnahmen wie Monitoring, Red-Teaming und Bug-Bounty-Programme, Nutzer können ergänzend ihre Browser-Sicherheitseinstellungen verändern.
Audits für KI-Systeme
Wichtig wären auch Transparenzpflichten, die Anbieter dazu verpflichten, offen darzulegen, wie sie Daten speichern und verwenden sowie kinderschutzfreundliche Standards einhalten. Unabhängige Stellen sollten KI-Systeme auditieren, etwa hinsichtlich Halluzinationsraten, Datenschutz oder Bias.
Nicht zuletzt ist interdisziplinäre Forschung erforderlich, um die langfristigen Auswirkungen der Mensch-KI-Interaktion besser zu verstehen, insbesondere im Hinblick auf emotionale Abhängigkeit und psychische Gesundheit.
Fabian Deitelhoff(öffnet im neuen Fenster) ist IT-Leiter und als Gründer in der MINT-Bildung tätig. Seine Schwerpunkte sind Low- und No-Code, generative KI und digitale Geschäftsmodelle.



