Zum Hauptinhalt Zur Navigation

Golem Plus Artikel
Zukunft der LLMs:
Wie LLMs aktuelle Grenzen überwinden könnten

Der Fortschritt bei Sprachmodellen wird langsamer, neuen Modellen wie GPT-5 fehlt der Wow-Effekt. Wir analysieren die mögliche Zukunft.
/ Tim Elsner
26 Kommentare News folgen (öffnet im neuen Fenster)
Wann wird er uns wirklich verstehen? (Bild: Alexandra_Koch/Pixabay)
Wann wird er uns wirklich verstehen? Bild: Alexandra_Koch/Pixabay

Nach einer regelrechten Explosion der Zahl neuer KI-Modelle und Anbieter, insbesondere für Sprachmodelle, scheint die Entwicklung aktuell eher langsam voranzugehen: Neue Modelle, etwa jüngst GPT-5, enttäuschen , was ihre Performance angeht. Die Sprünge zwischen den Generationen werden gefühlt kleiner, trotz mehr Rechenleistung und immer größerer Modelle.

Anstatt immer mehr Leistung oder Anpassungen an der sonst relativ gleichbleibenden Architektur(öffnet im neuen Fenster) vorzunehmen, könnte ein Paradigmenwechsel helfen: weg von Tokens, weg von Modellen, die Wort für Wort Texte formen, weg von statischen Modellen, die sich nicht mehr anpassen lassen. Wir beleuchten einige mögliche Wege aus der Stagnation, von denen wir vielleicht in Zukunft mehr hören.

Golem Plus Artikel