Zum Hauptinhalt Zur Navigation

Golem Plus Artikel
Sprachmodelle:
KI-Alarmismus zwischen Spekulation und Selbstüberhöhung

KI-Insider
Diskussionen über existenzielle Risiken durch KI haben sich in den Vordergrund gedrängt, ohne dass dies sachlich gerechtfertigt wäre. Ein Plädoyer für mehr Realismus.
/ Thilo Hagendorff
5 Kommentare News folgen (öffnet im neuen Fenster)
Es gibt viel Aufregung rund um das Thema KI - zu viel, meint unser Autor. (Bild: Pixabay)
Es gibt viel Aufregung rund um das Thema KI - zu viel, meint unser Autor. Bild: Pixabay

In der gegenwärtigen Debatte über künstliche Intelligenz (KI) wird oft das apokalyptische Szenario einer unkontrollierten Allgemeinen Künstlichen Intelligenz (AGI) oder extremer Risiken insbesondere durch die missbräuchliche Verwendung von Sprachmodellen heraufbeschworen. Sie sollen existenzielle Risiken für die Menschheit darstellen. Befeuert wird dies durch Statements(öffnet im neuen Fenster) oder Forderungen(öffnet im neuen Fenster) nach einer Forschungsunterbrechung für bestimmte KI-Systeme, die durch hochrangige CEOs und Forscher unterzeichnet werden . Doch der Diskurs ist in diesem Ausmaß nicht gerechtfertigt.

Die Liste möglicher Bedrohungsszenarien(öffnet im neuen Fenster) ist lang. Sie reicht von KI-Systemen, die sich selbst vervielfältigen oder eigenständig nach Macht streben, über die KI-gestützte Biowaffenherstellung bis hin zur Gefahr der Massenmanipulation durch automatisiert generierte Falschnachrichten und der resultierenden Erosion demokratischer Systeme.

Golem Plus Artikel