Zum Hauptinhalt Zur Navigation

AGI: Eine starke KI kann Menschen übertrumpfen und manipulieren

Eine Disruption wie die Erfindung von Buchdruck, Dampfmaschine und Atombombe gleichzeitig: KI -Forscher und Technologen fordern eine Forschungspause.
/ Helmut Linde
46 Kommentare News folgen (öffnet im neuen Fenster)
Starke KI: Disruptiver als die Erfindung der Atombombe, aber mit subtileren Gefahren (Bild: Gerd Altmann auf Pixabay)
Starke KI: Disruptiver als die Erfindung der Atombombe, aber mit subtileren Gefahren Bild: Gerd Altmann auf Pixabay / Pixabay License

Sich mit den Risiken zu befassen, die mit der Entwicklung einer menschenähnlichen künstlichen Intelligenz verbunden sind, wird immer dringlicher. Darauf hat jüngst eine Gruppe renommierter Wissenschaftler und Industrieller in einem offenen Brief (öffnet im neuen Fenster) aufmerksam gemacht. Initiator der Aktion ist das Future of Life Institute (FLI)(öffnet im neuen Fenster) , das sich seit einigen Jahren für eine sichere Nutzung von Schlüsseltechnologien einsetzt.

Warum ist ein solcher Aufruf nötig und welche Risiken birgt die derzeitige KI-Entwicklung genau? Angesichts der unüberschaubaren Vielfalt an Einsatzgebieten für eine starke KI erscheint es unmöglich, ihre Auswirkungen auf Wirtschaft, Politik und Gesellschaft klar vorherzusehen. Als sicher gilt jedoch, dass ihr Einfluss in all diesen Bereichen beträchtlich sein wird.

KI entwickelt sich rasant, der Diskurs steht ganz am Anfang

Zu den Autoren des offenen Briefes zählen bekannte Persönlichkeiten wie der Unternehmer Elon Musk, Apple-Gründer Steve Wozniak, Turing-Preisträger Yoshua Bengio und Berkeley-Professor Stuart Russell, Autor des Lehrbuchklassikers Artificial Intelligence: A Modern Approach(öffnet im neuen Fenster) . In ihrem Schreiben fordern sie ein sechsmonatiges Forschungsmoratorium für große KI-Labore, um der Gesellschaft mehr Zeit zur Vorbereitung auf eine menschenähnliche künstliche Intelligenz (auch "starke KI" oder Artificial General Intelligence, AGI(öffnet im neuen Fenster) ) zu verschaffen.

Der Auslöser des Aufrufs sind die jüngsten Erfolge in der Entwicklung großer Sprachmodelle, denen von einigen Forschern (öffnet im neuen Fenster) ein " Funken von AGI " zugeschrieben wird. Angesichts des schnellen Fortschritts dieser Technologie und der enormen Investitionen in ihre weitere Verbesserung(öffnet im neuen Fenster) kann nicht ausgeschlossen werden, dass die Entwicklung einer echten AGI - also einer künstlichen Intelligenz, die den Menschen in Bezug auf kognitive Tätigkeiten vollumfänglich ersetzen kann - eher in einem Zeitraum von Jahren als von Jahrzehnten erfolgen wird.

Die gesellschaftliche Debatte zur KI-Sicherheit steht hingegen erst am Anfang, wie die größtenteils recht knappen Medienberichte (zum Beispiel von ZDF(öffnet im neuen Fenster) , Spiegel (öffnet im neuen Fenster) oder FAZ(öffnet im neuen Fenster) ) zu der FLI-Veröffentlichung nahelegen.

Dieser Artikel beleuchtet daher den Hintergrund des offenen Briefes, beschreibt einige der wichtigsten KI-Risiken und ordnet sie in einen breiteren Kontext ein.

AGI! Und dann?

Eins ist sicher: KI wird eine Menge verändern. Einerseits wird starke KI eine große Anzahl neuer oder verbesserter Produkte und Dienstleistungen ermöglichen. Einen Vorgeschmack darauf gibt bereits heute ChatGPT(öffnet im neuen Fenster) , das nicht nur für unterschiedlichste Zwecke als persönlicher Assistent genutzt werden kann, sondern auch in die Suchmaschine Bing und eine Vielzahl weiterer Onlinedienste eingebaut wird .

Vor allem aber wird eine künftige AGI die Kosten von Dienstleistungen drastisch senken. Eine starke KI kann nämlich per Definition fast alle menschlichen Arbeiten automatisieren, die nicht körperlicher Natur sind. Auch hier gibt ChatGPT einen ersten Einblick in die kommenden Veränderungen, indem es den Zeitaufwand beim Programmieren und dem Verfassen oder Übersetzen von Texten deutlich verringert.

Ein Schub für die Robotik

Zudem wird das Aufkommen von AGI mit einem gewissen Zeitversatz wohl auch der Robotik zum Durchbruch in breiten Anwendungsfeldern verhelfen. Schließlich besteht die wichtigste Einschränkung für den Einsatz von Robotern heute noch darin, dass ihre Steuerung außerhalb standardisierter Produktionsabläufe äußerst aufwendig und fehleranfällig ist.

Insbesondere das Robotikunternehmen Boston Dynamics verblüfft zwar regelmäßig mit der mechanischen Leistungsfähigkeit seiner Produkte, doch wirken die Vorführungen bislang noch recht choreografiert(öffnet im neuen Fenster) . Die Steuerung durch eine AGI könnte Roboter befähigen, ihre Umgebung besser zu verstehen und Handlungen zu planen, was einen viel flexibleren Einsatz in unterschiedlichsten Anwendungsbereichen erlauben würde. Ein deutlicher Schub an Produktivität über viele Branchen hinweg wäre die Folge.

Neue Technologie, neue Probleme

Bei einer neuen Technologie mit dem Potenzial für derart umfangreiche und tiefgreifende Auswirkungen ist es kaum verwunderlich, dass sie mit Risiken behaftet ist: Auch selbstfahrende Autos verursachen Unfälle(öffnet im neuen Fenster) , Chatbots geben verstörende oder gefährliche Äußerungen von sich, autonome Waffensysteme sind generell eine äußerst beunruhigende Vorstellung, und die Liste solcher Beispiele ließe sich noch lange fortsetzen.

Angesichts dieser breiten Palette an Unsicherheiten ist es umso wichtiger, mit klarem Blick zwischen den begrenzten oder beherrschbaren und den wirklich kritischen Risiken zu unterscheiden. Es gibt unter ihnen einige Scheinriesen, die in der öffentlichen Debatte einen großen Raum einnehmen, jedoch bei nüchterner Betrachtung eigentlich hinter anderen Fragestellungen zurückstehen sollten.

Chatbots und die Leiden des jungen Werther

So setzte das deutsche Bundesverkehrsministerium bereits im Jahr 2017 eine Ethik-Kommission ein, um die Risiken im Zusammenhang mit autonomem Fahren umfassend zu bewerten (PDF)(öffnet im neuen Fenster) . Fragen zur Haftung bei Unfällen, die von Fahrzeugen im Autopilot-Modus verursacht werden, sind zweifellos berechtigt und bedürfen einer Klärung.

Ähnliches gilt für das ethische Dilemma bei der Programmierung selbstfahrender Autos, die verschiedene Arten von Personenschäden bei unvermeidbaren Unfällen gegeneinander abwägen muss. Dennoch wird die Bedeutung dieser Diskussionen durch die Tatsache relativiert, dass die Gesamtzahl der Verkehrsunfälle infolge eines flächendeckenden Einsatzes autonomer Fahrzeuge erheblich abnehmen dürfte.

Verstörende Gespräche

Ein weiteres prominentes Problem ist das Risiko unangemessener Äußerungen einer KI gegenüber den Anwendern. Die Reaktionen eines Chatbots können verstörend oder verletzend sein und im schlimmsten Fall könnte ein fehlgeleiteter Chatbot labile Benutzer dazu verleiten, sich selbst oder anderen Schaden zuzufügen.

Solche Risiken im Medienkonsum sind jedoch keineswegs neu: Schon Goethes Werther wird beispielsweise mit einer Welle von Selbstmorden vor etwa 250 Jahren nachgeahmt(öffnet im neuen Fenster) .

Neu ist im Falle der AGI die Skalierbarkeit: Es wäre höchst problematisch, wenn künstliche Intelligenz menschenfeindliche Ideen, demokratiezersetzende Konzepte oder stigmatisierende Vorurteile in großem Umfang verbreiten würde. Doch auch in der Vergangenheit haben bahnbrechende Technologie die Kräfteverhältnisse im Kampf um die öffentliche Meinung verändert.

Ein Beispiel dafür ist die Dominanz, die Google mit seinem beherrschenden Marktanteil unter den Suchmaschinen erworben hat: Allein durch die Reihenfolge, in der die Suchergebnisse präsentiert werden, kann politischer Einfluss ausgeübt werden.

Würde der Algorithmus von Google beispielsweise Internetseiten in geschlechtsneutraler Sprache höher oder niedriger gewichten als andere, dann wäre die gesellschaftliche Auseinandersetzung um dieses Thema damit praktisch über Nacht entschieden. Schließlich kann es sich kaum ein Produzent von Onlineinhalten leisten, die Präferenzen der Suchmaschine zu ignorieren.

Chat' dir deine Meinung!

Auf ähnliche Weise könnte eine massenhaft skalierte und in unterschiedliche Dienste eingebaute KI unsere Gesellschaft durch die in ihr verankerten Meinungen und Vorurteile beeinflussen. Wie auch im Fall von Google ist eine solche Konzentration von Macht ohne demokratische Legitimation bedenklich.

Immerhin scheinen die Mechanismen des Marktes und das ständige Risiko regulatorischer Eingriffe die zentralen Akteure bislang zu verantwortungsvollem Handeln zu bewegen. Tatsächlich präsentiert ChatGPT in den meisten Fällen politische oder gesellschaftliche Themen äußerst zurückhaltend und ausgewogen - im Gegensatz zu vielen etablierten Boulevardmedien oder Fernsehsendern.

Dies gibt Anlass zur Hoffnung, dass sorgfältig und verantwortungsbewusst trainierte Sprachmodelle sogar zur Verringerung gesellschaftlicher Spaltung beitragen können, indem sie kontroverse Themen und verschiedene Standpunkte objektiv darstellen.

Abseits der großen kommerziellen Anbieter ist jedoch auf jeden Fall damit zu rechnen, dass künstliche Intelligenz zur Meinungsbildung missbraucht werden wird. Schon heute gibt es eine Vielzahl konkurrierender Sprachmodelle und nicht bei allen wurde in der Entwicklung Wert auf ethische Standards gelegt .

Der offene Brief des FLI warnt explizit vor der Überflutung von Informationskanälen durch KI-generierte Propaganda. Für diese sind allerdings vor allem die sozialen Medien anfällig und es drängt sich die Frage auf, ob deren Zuverlässigkeit als Quelle für politische Informationen überhaupt noch weiter sinken kann. Tatsächlich ist sogar der umgekehrte Effekt denkbar, dass also die offensichtliche massenhafte Verbreitung gefälschter Bilder und anderer Inhalte das öffentliche Bewusstsein für diese Problematik schärft.

Welche KI-Risiken sind die besonders kritischen?

Um es klar zu sagen: Es geht hier nicht darum, die zuvor erwähnten Herausforderungen herunterzuspielen, sondern sie in Beziehung zu anderen, möglicherweise bedeutenderen Risiken zu setzen, die im Weiteren erörtert werden. Denn nur eine differenzierte Betrachtung ermöglicht es, vernünftige Prioritäten für die gesellschaftliche Debatte über künstliche Intelligenz zu setzen.

Zu diesen Prioritäten zählt zweifelsohne die Beeinflussung der Arbeitswelt durch AGI. Vergangene Automatisierungswellen bieten zahlreiche Beispiele dafür, wie die Einführung neuer Technologien einen umfassenden Strukturwandel bewirken kann. Sei es die Mechanisierung der Landwirtschaft, der Einsatz von Robotern in Fabriken oder die Verbreitung von Softwareanwendungen zur Unternehmenssteuerung: Sie alle machten jeweils bestimmte Arten von Arbeitsplätzen überflüssig.

Der Kampf der Arbeitnehmerschaft gegen diese Entwicklungen hat eine ebenso lange wie erfolglose Tradition. Schon Anfang des 19. Jahrhunderts setzten sich in England die sogenannten Ludditen(öffnet im neuen Fenster) gegen die Mechanisierung der Textilindustrie zur Wehr, konnten den Wandel aber, wenn überhaupt, nur kurzfristig bremsen.

Stattdessen setzte eine fortwährende Transformation der Arbeitswelt ein, in deren Verlauf sich der Mensch immer mehr von schweren körperlichen über feinmotorische hin zu rein intellektuellen Tätigkeiten verlagerte. In Summe hat dies dazu geführt, dass heute in Deutschland rund 15 Millionen Menschen (und damit mehr als ein Drittel aller Erwerbstätigen) an Büroarbeitsplätzen beschäftigt sind (PDF)(öffnet im neuen Fenster) .

Viele Bürojobs könnten überflüssig werden

Eine künftige AGI könnte per Definition fast alle dieser Arbeitskräfte eins zu eins ersetzen. Es wäre naiv zu glauben, dass dabei besonders kreative oder geistig anspruchsvolle Tätigkeiten vor der Automatisierung geschützt seien.

Schon heute erzeugen Algorithmen die Grafiken für Zeitungsartikel oder komponieren Musikstücke(öffnet im neuen Fenster) und GPT-4 löst manche komplexen Programmieraufgaben besser als die meisten Menschen. Es werden wohl eher legale Gründe sein, die eine längere Schonfrist für gewisse Arbeitsplätze sicherstellen.

Etwas salopp formuliert: Der Vorstand wird nicht deshalb als letzter von Bord gehen, weil er den Job besser macht als ein Computer, sondern weil irgendjemand die Papiere für das Unternehmen unterschreiben muss.

Und was macht Menschen dann noch besonders?

Wie oben bereits erwähnt, wird AGI auch deutliche Fortschritte in der Robotik ermöglichen und ihr den Weg ebnen für einen massenhaften Einsatz außerhalb streng kontrollierter Umgebungen in der Produktion . Dies wird den Automatisierungsgrad komplexer manueller Tätigkeiten zum Beispiel im Handwerk, der Gastronomie oder in Pflegeberufen erhöhen, wenn auch wohl auf einer etwas längeren Zeitskala als bei den reinen Bürotätigkeiten.

In der Vergangenheit hat sich das Argument, dass Technologie mehr neue Arbeitsplätze schafft als sie verdrängt, stets als zutreffend erwiesen. Allerdings ist es ungewiss, ob diese Annahme auch in die Zukunft übertragbar ist. Angesichts der Tatsache, dass eine AGI per Definition die kognitive Leistung eines Menschen vollständig ersetzen kann, ist es nicht unmittelbar ersichtlich, auf welche Art von Tätigkeiten sich menschliche Arbeitskräfte künftig zurückziehen könnten.

Wir nennen es Arbeit

Es ist vorstellbar, dass sich unser Begriff von Arbeit deutlich erweitern wird. So hätte es vor zwanzig Jahren vermutlich nicht als Arbeit gegolten, wenn eine Person regelmäßig Fotos von ihrem Mittagessen veröffentlicht - heutzutage aber können Influencer ihren Lebensunterhalt davon bestreiten. Es bleibt jedoch fraglich, ob ein solcher kultureller Wandel in ausreichendem Umfang und Tempo erfolgen kann, um die bevorstehende Automatisierungswelle abzumildern.

Schließlich kann eine AGI problemlos skaliert und äußerst flexibel genutzt werden. Daher wird ihre breite Anwendung viel schneller erfolgen als bei früheren technischen Innovationen. Nicht zufällig verzeichnet ChatGPT das steilste Nutzerwachstum aller technischen Innovationen in der Geschichte der Menschheit(öffnet im neuen Fenster) , und die Vielfalt der Einsatzbereiche lässt erahnen, wie rasant eine AGI die Welt verändern könnte.

Entthronte Menschen

Etwas abstrakter, aber ebenso weitreichend sind die Auswirkungen dieser Technologie auf das menschliche Selbstverständnis. Historische Vergleiche bieten sich hier an: Die kopernikanische Wende - die Erkenntnis, dass die Erde um die Sonne kreist - entthronte den Menschen aus seiner zentralen Position im Kosmos.

Darwins Evolutionstheorie raubte ihm den Status als Krone der Schöpfung und ordnete ihn stattdessen in einen gemeinsamen Stammbaum mit Tieren und Pflanzen ein. Die Entdeckung der DNA und ihrer Funktionsweise zeigte, dass das Leben selbst auf physikalische Grundlagen zurückzuführen ist.

Diese Erkenntnisse sind so frappierend, dass sie teilweise bis heute geleugnet oder bekämpft werden. Welche Auswirkungen wird es also auf unsere kollektive Psyche haben, wenn unsere Computer schlauer sind als wir selbst?

AGI als existenzielle Bedrohung

Neben den oben beschriebenen gesellschaftlichen Herausforderungen muss das Thema der AGI als existentielle Bedrohung diskutiert werden. Mit einem existentiellen Risiko ist in diesem Zusammenhang eine Entwicklung gemeint, deren katastrophale Auswirkungen mit Ereignissen wie einem weltweiten Atomkrieg, ungebremsten Klimawandel oder dem Einschlag eines sehr großen Meteoriten vergleichbar sind. Der offene Brief des FLI betont explizit die Gefahr eines Kontrollverlustes der menschlichen Zivilisation an eine künstliche Intelligenz.

Ob und in welchem Zeitraum eine solche existenzielle Bedrohung besteht, ist eine sehr umstrittene Frage, die zum ersten Mal von Nick Bostrom (öffnet im neuen Fenster) in seinem 2014 erschienenen Buch Superintelligence(öffnet im neuen Fenster) eingehend untersucht wurde. Die vermutete Gefahr mag recht abstrakt erscheinen und dies macht es schwierig, einen Konsens über ihre Dringlichkeit zu finden.

Während zum Beispiel mögliche Szenarien eines nuklearen Weltkrieges recht klar definiert und seine schrecklichen Auswirkungen offensichtlich sind, könnte das existenzielle Risiko durch AGI auf sehr unterschiedliche Weisen Wirklichkeit werden, die wir uns heute möglicherweise nur zum Teil vorstellen können.

Eine seriöse Diskussion wird zusätzlich dadurch erschwert, dass unweigerlich Assoziationen zu den Terminator-Filmen oder anderen Science-Fiction-Fantasien geweckt werden. Es sei hier daran erinnert, dass der offene Brief des FLI von einer großen Zahl prominenter und ernstzunehmender Wissenschaftler unterzeichnet wurde. Gewiss befürchtet keiner von ihnen, dass die Welt in naher Zukunft von einer Armee aus Killerrobotern überrannt wird.

Selbst das deutlich realistischere Szenario eines großflächigen Cyberangriffes auf unsere Infrastruktur durch hochintelligente Computerviren ist nicht das eigentliche existenzbedrohende Problem. Die wahre Bedrohung ist leider deutlich subtiler.

Macht braucht keinen Körper

Im Kern wird die existentielle Bedrohung vielmehr darin gesehen, dass künstliche Intelligenz zunehmend gesellschaftliche, politische oder wirtschaftliche Macht ausüben könnte. Dabei sind unterschiedliche Konstellationen denkbar, in denen ein solcher Kontrollverlust ablaufen könnte. Sie unterscheiden sich zum Beispiel darin, ob eine einzige, wenige oder viele AGI involviert sind, ob und wie schnell diese AGI sich selbst verbessern und ob der Prozess zufällig seinen Lauf nimmt oder von einzelnen Menschen absichtlich ausgelöst wird.

Zur Einschätzung des Risikos sollte man sich vergegenwärtigen, dass Macht keinen physischen Körper benötigt. Staatspräsidenten und Firmenchefs setzen ihren Willen nicht mit der Kraft ihrer Muskeln durch, sondern durch ihr gesprochenes oder geschriebenes Wort. Und dass man sich dazu gelegentlich in Büros oder Regierungsgebäuden trifft, ist spätestens seit der Coronapandemie eher Folklore als echte Notwendigkeit.

Macht beruht letztlich auf der Fähigkeit, Menschen zu beeinflussen, sie von den eigenen Ideen zu überzeugen, Bündnisse zu schmieden und geschickte Kompromisse auszuhandeln. Schon GPT-4 zeigt sich in der Lage, die Gefühle von Menschen in unterschiedlichen Situationen differenziert einzuschätzen und sie sogar durch Lügen zu beeinflussen(öffnet im neuen Fenster) , um eigene Ziele zu erreichen.

Eine künftige AGI wird all diese Fähigkeiten deutlich besser beherrschen als jeder Mensch. Und ähnlich wie heute schon viele Instanzen von GPT gleichzeitig im Einsatz sind und es noch dazu viele andere Sprachmodelle mit vergleichbarer Funktion gibt, wird es auch zahlreiche Kopien und Varianten der AGI geben. Bei allen Vorsichtsmaßnahmen wird es schwer zu vermeiden sein, dass einige davon nach Machtgewinn streben - sei es im Auftrag verantwortungslos handelnder Personen oder aus einem unvorhergesehenen eigenen Antrieb heraus.

Sind wir auf AGI vorbereitet?

Angesichts der ungelösten gesellschaftlichen Fragen im Umgang mit AGI und der möglichen existenziellen Bedrohung wird klar, warum die Unterzeichnenden des FLI-Schreibens eine Verlangsamung der KI-Forschung fordern. Der Vorschlag eines sechsmonatigen Moratoriums wirkt jedoch recht hilflos, wenn man sich die schiere Größe der Herausforderung anhand eines historischen Vergleichs vor Augen hält:

Ein nicht unwesentlicher Teil der letzten zweihundert Jahre Weltgeschichte lässt sich als ein Verteilungskampf um den Wohlstandsgewinn aus der Industrialisierung darstellen, der sich erst mit dem faktischen Ende des Kommunismus ein wenig beruhigt hat. Eine zukünftige Gesellschaft, in der Computer und Roboter den größten Teil der Wertschöpfung erbringen, wird eine veränderte oder sogar völlig neue ideologische Grundlage benötigen.

Dass sich diese auch nur annähernd in einem halben Jahr entwickeln könnte, ist offensichtlich abwegig. Ähnliches gilt für die existenzielle Bedrohung durch AGI, für die es im Moment noch nicht einmal ein verbreitetes Problembewusstsein gibt, geschweige denn Lösungsansätze auf einer Zeitskala von sechs Monaten.

Auch den Unterzeichnenden des FLI-Briefes dürfte klar sein, dass ihr Vorschlag einer Forschungspause so wohl nicht umgesetzt wird. Ihr Ziel ist es vielmehr, öffentliche Aufmerksamkeit auf die Tatsache zu lenken, dass die Entwicklung einer AGI einen historischen Wendepunkt markieren wird.

Dieser wird in seinen geistigen, wirtschaftlichen und politischen Folgen vergleichbar sein mit der Erfindung von Buchdruck, Dampfmaschine und Atombombe - und zwar gleichzeitig.

Helmut Linde(öffnet im neuen Fenster) leitete verschiedene Data-Science-Teams in deutschen Konzernen und ist nun in seinem Unternehmen für die Digitalisierung von Forschung und Entwicklung verantwortlich. Als Mathematiker und Physiker ist er fasziniert von naturwissenschaftlichen Themen sowie der Anwendung und der Zukunft der künstlichen Intelligenz.


Relevante Themen