Zum Hauptinhalt Zur Navigation

Golem Plus Artikel
Large Language Models:
Wie nah sind wir an der Singularität in der KI?

Warum Sam Altman vielleicht gern übertreibt, was für eine baldige KI -Singularität spricht und was dagegen – vor allem bei LLMs.
/ Tim Elsner
142 Kommentare News folgen (öffnet im neuen Fenster)
Ob bei KI oder einem schwarzen Loch: Bei einer Singularität kommen wir an die Grenzen dessen, was wir noch verstehen oder kontrollieren können. Sam Altman sagt: Bald ist sie da. (Bild: Getty (Sam Altman)/Nasa/Montage: Golem.de)
Ob bei KI oder einem schwarzen Loch: Bei einer Singularität kommen wir an die Grenzen dessen, was wir noch verstehen oder kontrollieren können. Sam Altman sagt: Bald ist sie da. Bild: Getty (Sam Altman)/Nasa/Montage: Golem.de

Begriffe wie Artificial General Intelligence (AGI) und Singularität sind aufgeladen mit Angst und erregen große Aufmerksamkeit in Medien und sozialen Netzen. Insbesondere im Hinblick auf die Wachstumspläne von OpenAI ist die Aussage von Firmenchef Sam Altman, dass die KI-Singularität längst begonnen habe, vielleicht eher Marketing. In einem Blogeintrag vom 10. Juni spricht Altman(öffnet im neuen Fenster) von einer "sanften Singularität" .

Dass Altman ein wirtschaftliches Interesse daran hat, das baldige Erreichen der KI-Singularität heraufzubeschwören, heißt aber nicht, dass er nicht recht haben könnte. Wir erklären, was KI-Singularität von einer Superintelligenz unterscheidet, warum es Interpretationssache ist, wie nah wir an der Singularität sind, und warum LLMs diesbezüglich eine Sackgasse sein könnten.

Golem Plus Artikel