AGI: Eine starke KI kann Menschen übertrumpfen und manipulieren
Eine Disruption wie die Erfindung von Buchdruck, Dampfmaschine und Atombombe gleichzeitig: KI-Forscher und Technologen fordern eine Forschungspause.

Sich mit den Risiken zu befassen, die mit der Entwicklung einer menschenähnlichen künstlichen Intelligenz verbunden sind, wird immer dringlicher. Darauf hat jüngst eine Gruppe renommierter Wissenschaftler und Industrieller in einem offenen Brief aufmerksam gemacht. Initiator der Aktion ist das Future of Life Institute (FLI), das sich seit einigen Jahren für eine sichere Nutzung von Schlüsseltechnologien einsetzt.
- AGI: Eine starke KI kann Menschen übertrumpfen und manipulieren
- AGI! Und dann?
- Chatbots und die Leiden des jungen Werther
- Welche KI-Risiken sind die besonders kritischen?
- Und was macht Menschen dann noch besonders?
- AGI als existenzielle Bedrohung
- Sind wir auf AGI vorbereitet?
Warum ist ein solcher Aufruf nötig und welche Risiken birgt die derzeitige KI-Entwicklung genau? Angesichts der unüberschaubaren Vielfalt an Einsatzgebieten für eine starke KI erscheint es unmöglich, ihre Auswirkungen auf Wirtschaft, Politik und Gesellschaft klar vorherzusehen. Als sicher gilt jedoch, dass ihr Einfluss in all diesen Bereichen beträchtlich sein wird.
KI entwickelt sich rasant, der Diskurs steht ganz am Anfang
Zu den Autoren des offenen Briefes zählen bekannte Persönlichkeiten wie der Unternehmer Elon Musk, Apple-Gründer Steve Wozniak, Turing-Preisträger Yoshua Bengio und Berkeley-Professor Stuart Russell, Autor des Lehrbuchklassikers Artificial Intelligence: A Modern Approach. In ihrem Schreiben fordern sie ein sechsmonatiges Forschungsmoratorium für große KI-Labore, um der Gesellschaft mehr Zeit zur Vorbereitung auf eine menschenähnliche künstliche Intelligenz (auch "starke KI" oder Artificial General Intelligence, AGI) zu verschaffen.
Der Auslöser des Aufrufs sind die jüngsten Erfolge in der Entwicklung großer Sprachmodelle, denen von einigen Forschern ein "Funken von AGI" zugeschrieben wird. Angesichts des schnellen Fortschritts dieser Technologie und der enormen Investitionen in ihre weitere Verbesserung kann nicht ausgeschlossen werden, dass die Entwicklung einer echten AGI – also einer künstlichen Intelligenz, die den Menschen in Bezug auf kognitive Tätigkeiten vollumfänglich ersetzen kann – eher in einem Zeitraum von Jahren als von Jahrzehnten erfolgen wird.
Die gesellschaftliche Debatte zur KI-Sicherheit steht hingegen erst am Anfang, wie die größtenteils recht knappen Medienberichte (zum Beispiel von ZDF, Spiegel oder FAZ) zu der FLI-Veröffentlichung nahelegen.
Dieser Artikel beleuchtet daher den Hintergrund des offenen Briefes, beschreibt einige der wichtigsten KI-Risiken und ordnet sie in einen breiteren Kontext ein.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
AGI! Und dann? |
es scheint nicht so, als ob du den Artikel gelesen hast. Schade. Also Forscher gehen...
BGE wird es schon mit 50% Arbeitslosigkeit geben. Dann bekommen die oben nämlich Angst.
"Vor 100 Jahren hat man auch gesagt, dass sich Glühbirnen nicht durchsetzen, weil sie...
Danke lieber Podcast-Beaftragter :-)
Kommentieren