Zum Hauptinhalt Zur Navigation Zur Suche

Die Regulierung greift zu kurz

Die Studie verweist außerdem auf regulatorische Lücken. Bestehende Regelwerke in Europa wie der AI Act , der Digital Services Act und der Digital Markets Act konzentrieren sich vor allem auf Aspekte wie Sicherheit, Transparenz und Risikobewertung. Nach Einschätzung der Forschenden greifen diese Ansätze jedoch zu kurz, wenn es um die Wirkung von Sprachmodellen auf Kommunikation und Meinungsbildung geht.

Insbesondere die Art und Weise, wie Inhalte gewichtet, dargestellt und eingeordnet werden, bleibt bislang weitgehend unberücksichtigt. Dadurch fehlt es an Instrumenten, um solche indirekten Effekte systematisch zu erfassen oder zu begrenzen.

Auch die Marktstruktur spielt nach Einschätzung des Forschungsteams eine Rolle. Wenn wenige Unternehmen zentrale Modelle und Daten kontrollieren, kann dies die Vielfalt von Perspektiven einschränken. Daher betonen die Forscher die Bedeutung von Wettbewerb und pluralen Strukturen für ein ausgewogenes Informationsumfeld.

Breitere Regulierung gefordert

Vor diesem Hintergrund plädieren sie für einen deutlich breiteren Regulierungsansatz, der die gesamte Entwicklungs- und Nutzungskette von KI-Systemen einbezieht. "Wer Risiken durch Sprachmodelle wirksam begrenzen will, darf nicht nur auf Verbote oder Einzelfallmoderation setzen" , sagt Adrian Kuenzler. "Es braucht ein Informationsökosystem, in dem Vielfalt, Nachvollziehbarkeit und Wettbewerb technisch, regulatorisch und institutionell mitgedacht werden."

Dazu zählen unter anderem überprüfbare Aufsichts- und Moderationsmechanismen, mehr Wettbewerb im Markt sowie technische Ansätze, die Vielfalt und Transparenz gezielt stärken. Konkret schlagen die Forschenden regelmäßige Audits, geeignete Vergleichsmaßstäbe zur Analyse von Verzerrungen, mehr Einblick in Trainingsdaten und Modellverhalten sowie wirksame Korrekturmöglichkeiten nach der Einführung vor.


Relevante Themen