Zum Hauptinhalt Zur Navigation

GPT: OpenAI will Schutz vor KI-Superintelligenz entwickeln

Sollte eine KI einmal intelligenter sein als der Mensch: Wie wird es erreicht, ihn zu schützen? OpenAI will nun Kontrollmechanismen entwickeln.
/ Andreas Donath
6 Kommentare News folgen (öffnet im neuen Fenster)
Illustration zur Überwachung einer Superintelligenz (Bild: OpenAI)
Illustration zur Überwachung einer Superintelligenz Bild: OpenAI

OpenAI setzt sich mit der Frage auseinander, wie eine mögliche Superintelligenz auf KI-Basis kontrolliert werden kann(öffnet im neuen Fenster) , so dass sie sich nicht gegen den Menschen richtet, sondern in seinen Sinne handelt. In einem Blogeintrag betont das Unternehmen, dass Menschen nicht in der Lage sein werden, künstliche Intelligenzsysteme zu beaufsichtigen, die deutlich klüger sind als sie selbst. Daher strebt OpenAI die Entwicklung eines automatisierten Verfahrens zur Kontrolle dieser Systeme an, das ebenfalls auf KI basiert. Dieses soll andere Systeme unter anderem auf problematisches Verhalten überprüfen. Dazu sollen absichtlich falsch ausgerichtete Modelle als Testkandidaten entwickelt werden.

Das erklärte Ziel von OpenAI ist es, die technischen Herausforderungen für ein solches Kontrollsystem innerhalb von vier Jahren zu bewältigen. Dafür will das Unternehmen ein Fünftel seiner Rechenkapazität einsetzen, heißt es in dem Blogeintrag.

KI-Risiken sollen selbst durch KI minimiert werden

Das dazugehörige Entwicklerteam unter der Leitung von Ilya Sutskever soll diese Aufgabe angehen. Obwohl eine die von OpenAI als Superintelligenz bezeichnete Fähigkeit einer KI derzeit noch weit entfernt zu sein scheint, hält OpenAI es für möglich, dass sie noch in diesem Jahrzehnt entwickelt wird. Damit könnten zwar viele Probleme gelöst, die Forschung auf ein neues Niveau gebracht und vermutlich auch viele andere positive Dinge gemacht werden, aber was ist, wenn die KI nicht im Sinne der Menschen handelt?

Die Initiative von OpenAI folgt Warnungen von Experten aus der Branche, die existenzielle Gefahren im Zusammenhang mit künstlicher Intelligenz sehen. Auch OpenAI-Chef Sam Altman zählt zu den Unterzeichnern dieser Warnung. Die genaue Natur dieser Bedrohung wurde nicht näher erläutert und Kritiker werfen den Experten vor, dass solche Warnungen von den bereits heute bestehenden Problemen der künstlichen Intelligenz, wie zum Beispiel Diskriminierung in Algorithmen, ablenken.

Weitere Informationen zum Thema künstliche Intelligenz gibt es hier in unserem Karriere-Ratgeber.


Relevante Themen