Zum Hauptinhalt Zur Navigation

Vor CEO-Chaos: OpenAI soll Durchbruch bei Super-KI erreicht haben

Nur wenige Tage vor dem CEO-Chaos bei OpenAI soll das Unternehmen wichtige Fortschritte gemacht haben.
Aktualisiert am , veröffentlicht am / Sebastian Grüner
232 Kommentare News folgen (öffnet im neuen Fenster)
OpenAI soll riesige KI-Fortschritte machen. (Bild: Reuters)
OpenAI soll riesige KI-Fortschritte machen. Bild: Reuters

Das Hin und Her in der Führungsebene von OpenAI der vergangenen Woche könnte tatsächlich aufgrund verschiedener ideologischer Ausrichtungen von führenden Teilen der Belegschaft ausgelöst worden sein. Das zumindest berichtet Reuters unter Berufung auf interne Quellen(öffnet im neuen Fenster) und verweist dazu auf ein Forschungsprojekt, Q*, das nur wenige Tage vor der Entlassung von Sam Altman sehr weitreichende Fähigkeiten erreicht haben soll.

Dem Bericht zufolge warnten mehrere führende Angestellte den Vorstand der gemeinnützigen Organisation vor den möglichen Folgen des Forschungsprojektes. Dieser Brief habe dann neben weiteren grundsätzlichen Auseinandersetzungen zwischen Vorstand und CEO Sam Altman zu dessen Kündigung geführt. Laut Informationen von The Verge(öffnet im neuen Fenster) soll der Brief den Vorstand jedoch nie erreicht haben und entsprechend auch nicht zur Kündigung beigetragen haben. Altman selbst ging nach einer chaotischen Woche gestärkt aus der Auseinandersetzung hervor und kehrt als OpenAI-CEO zurück.

Über die tatsächlichen Fähigkeiten von Q* sind bisher jedoch kaum sinnvolle Details bekannt. Intern soll das Unternehmen zwar alle Angestellten über das Projekt informiert haben, allerdings nur durch unkommentierte Verweise auf Medienberichte. Bei Reuters heißt es, dass Q* in der Lage sein soll, bestimmte mathematische Probleme auf Schulniveau eigenständig zu lösen. Die damit verbundenen Fähigkeiten hätten demnach die Forscher darin bestärkt, dass das System künftig deutlich leistungsfähiger sein könnte.

Bisher basieren die von OpenAI hauptsächlich erforschten und bereitgestellten Systeme auf großen Sprachmodellen (LLM), die für eine Aufgabe prinzipbedingt meist unterschiedliche Antworten liefern. Denn Sprachmodelle basieren im Grunde weiter auf der Wahrscheinlichkeitsverteilung, die versuchen, aufeinanderfolgende Worte möglichst genau vorherzusagen. Für mathematische Aufgaben müssen jedoch logische Schlussfolgerungen getätigt werden, um zu einem präzisen und je nach Aufgabe immer gleichen Ergebnis zu gelangen.

Nachtrag vom 23. November 2023, 15:11 Uhr

Wir haben den Text um den Hinweis auf die Informationen des Magazins The Verge ergänzt.


Relevante Themen