Sprachmodelle: KI-Alarmismus zwischen Spekulation und Selbstüberhöhung

In der gegenwärtigen Debatte über künstliche Intelligenz (KI) wird oft das apokalyptische Szenario einer unkontrollierten Allgemeinen Künstlichen Intelligenz (AGI) oder extremer Risiken insbesondere durch die missbräuchliche Verwendung von Sprachmodellen heraufbeschworen. Sie sollen existenzielle Risiken für die Menschheit darstellen. Befeuert wird dies durch Statements(öffnet im neuen Fenster) oder Forderungen(öffnet im neuen Fenster) nach einer Forschungsunterbrechung für bestimmte KI-Systeme, die durch hochrangige CEOs und Forscher unterzeichnet werden . Doch der Diskurs ist in diesem Ausmaß nicht gerechtfertigt.
Die Liste möglicher Bedrohungsszenarien(öffnet im neuen Fenster) ist lang. Sie reicht von KI-Systemen, die sich selbst vervielfältigen oder eigenständig nach Macht streben, über die KI-gestützte Biowaffenherstellung bis hin zur Gefahr der Massenmanipulation durch automatisiert generierte Falschnachrichten und der resultierenden Erosion demokratischer Systeme.