OpenAI o1: Nicht genug durchdacht?

Mit sogenannten Chain-of-Thought-Verfahren sollen die o1-Modelle Probleme schrittweise analysieren und lösen können. Sie unterscheiden sich damit deutlich von ihren Vorgängern wie GPT-4: Während GPT-4 sich auf natürliche Sprachverarbeitung und generative Aufgaben konzentriert, liegt der Fokus der o1-Reihe auf komplexem Reasoning (Durchdenken beziehungsweise Argumentieren) und der Lösung anspruchsvoller Probleme in Wissenschaft, Mathematik und Programmierung.
Ein herausragendes Merkmal der o1-Modelle ist ihre Fähigkeit zum "Nachdenken" vor der Antwortgenerierung, was zu präziseren und durchdachteren Ergebnissen führen soll. OpenAI hat die o1-Modellreihe am 12. September 2024 vorgestellt(öffnet im neuen Fenster) . Noch handelt es sich laut OpenAI um eine Vorschauversion. Verfügbar sind diese neuen Modelle auch noch nicht für alle, was sich aber bald ändern soll. Die ersten Ergebnisse sind, so weit überprüfbar, gut, allerdings gibt es bei der Sicherheit erhebliche Bedenken.
Funktionsweise und Besonderheiten
Mit den Chain-of-Thought-Verfahren sollen die o1-Modelle bei komplexen Aufgaben, die ein tiefes Verständnis und logisches Denken erfordern, besonders effektiv sein. Umgangssprachlich ist die Rede davon, dass diese Modelle darauf trainiert sind, wie Menschen zu denken, bevor sie mit einer Antwort reagieren. Ähnlich wie wir Menschen sollen die Modelle in der Lage sein, verschiedene Strategien auszuprobieren, um Fehler darin zu erkennen, bevor die Modelle eine Antwort liefern - ein potenziell großer Sprung in der Entwicklung generativer Modelle.
Die Kombination aus "Nachdenken", verbessertem Reasoning und Spezialisierung auf komplexe Problemstellungen macht die o1-Modelle zu leistungsfähigen Werkzeugen für Forscher, Entwickler und Mathematiker. Sie eröffnen neue Möglichkeiten in der KI-gestützten Problemlösung und versprechen, die Grenzen dessen, was künstliche Intelligenz leisten kann, weiter zu verschieben.
Das KI-Modell wurde mit anspruchsvollen Benchmark-Aufgaben in den Bereichen Physik, Chemie und Biologie konfrontiert, um die Leistungsfähigkeit zu messen. Laut Angaben von OpenAI erreichte es dabei ein Niveau vergleichbar mit dem von Doktoranden. So konnte das Denkmodell in einer Qualifikationsprüfung für die Internationale Mathematik-Olympiade (IMO) 83 Prozent der Aufgaben korrekt lösen, während GPT-4o lediglich 13 Prozent richtig beantwortete. Die folgenden Abbildungen zeigen die Ergebnisse einiger Evaluierungen im Vergleich zu GPT-4o.


Varianten des o1-Modells
OpenAI hat zwei Varianten des o1-Modells vorgestellt: o1-preview und o1-mini. Das Hauptmodell der o1-Reihe, o1-preview, wurde speziell für komplexe Reasoning-Aufgaben entwickelt. Einsatzgebiete von o1-preview sind:
- wissenschaftliche Forschung und Datenanalyse
- komplexe mathematische Berechnungen und Beweise
- anspruchsvolle Programmieraufgaben
- Strategieentwicklung und Problemlösung in verschiedenen Fachgebieten.
o1-mini ist eine kleinere, schnellere und kostengünstigere Version des o1-Modells. Das Modell ist für Coding-Aufgaben und leichtere KI-Aufgaben optimiert. Darüber hinaus ist es energieeffizienter und bietet eine schnellere Verarbeitung. Laut Aussage von OpenAI sind die Betriebskosten von o1-mini etwa 80 Prozent niedriger als die von o1-preview. Die Einsatzgebiete von o1-mini sind:
- Softwareentwicklung und Coding-Projekte
- mathematische und wissenschaftliche Aufgaben, die keine umfangreiche Wissensbasis erfordern
- eine kostengünstige Lösung für Start-ups und unabhängige Entwickler.
Beide Modelle sind besonders geeignet für Aufgaben, die tiefgehendes Reasoning erfordern und bei denen längere Antwortzeiten tolerierbar sind. Daneben gibt es aktuell noch weitere Einschränkungen.
Nicht frei von Halluzinationen
Die o1-Modelle weisen aktuell in der Preview-Version noch einige Limitierungen und Herausforderungen auf. Im Vergleich zu ChatGPT fehlen ihnen bestimmte Funktionen, die viele Nutzer als selbstverständlich erachten. So können die o1-Modelle weder im Internet surfen noch Dateien hochladen oder verarbeiten, was ihre Anwendungsmöglichkeiten in bestimmten Szenarien einschränkt.
Ein weiterer Nachteil sind die schon erwähnten längeren Verarbeitungszeiten. Die komplexen Berechnungen und das tiefgehende Reasoning der o1-Modelle erfordern erhebliche Rechenleistung, was zu längeren Wartezeiten bei der Antwortgenerierung führt. Das kann in Situationen, die schnelle Reaktionen erfordern, problematisch sein.
Trotz ihrer fortschrittlichen Fähigkeiten sind auch die o1-Modelle nicht frei von Halluzinationen und Fehlern. Sie können gelegentlich falsche oder irreführende Informationen produzieren, insbesondere bei Themen, die außerhalb ihres Trainingsbereichs liegen. Das erfordert eine sorgfältige Überprüfung der Ergebnisse durch menschliche Experten, besonders in kritischen Anwendungsbereichen wie der wissenschaftlichen Forschung oder der Softwareentwicklung.
Halluzinationen bei Sprachmodellen wie GPT-3 oder GPT-4 sind die Tendenz dieser KI-Modelle, plausible, aber faktisch falsche oder erfundene Informationen zu generieren. Das geschieht, weil sie auf der Grundlage großer Textdatensätze trainiert wurden und Muster replizieren, ohne dabei echtes Verständnis oder Wissen zu besitzen.
Die Auswirkungen solcher Halluzinationen können erheblich sein: Sie können zur Verbreitung von Fehlinformationen führen, insbesondere wenn die generierten Inhalte als vertrauenswürdig betrachtet werden. Wiederholte Halluzinationen können das Vertrauen in das Sprachmodell untergraben und in kritischen Anwendungen wie Medizin, Recht oder Forschung zu Fehlentscheidungen führen. Außerdem werfen sie ethische Fragen hinsichtlich der Verantwortlichkeit auf, wenn die vom Modell bereitgestellten Informationen irreführend oder schädlich sind.
Um Halluzinationen zu vermeiden oder zumindest zu minimieren, lassen sich verschiedene Strategien anwenden. Eine Verbesserung der Trainingsmethoden und der Datenqualität ist eine grundlegende Maßnahme. Die Integration von Faktenprüfungssystemen, die auf externe, verlässliche Wissensquellen zugreifen, kann dazu beitragen, die Genauigkeit der generierten Informationen zu erhöhen.
Sprachmodelle könnten auch so gestaltet werden, dass sie ihre Unsicherheit signalisieren, anstatt falsche Antworten zu liefern. In kritischen Bereichen sind die Ausgaben von Sprachmodellen stets durch menschliche Experten zu verifizieren, um mögliche Fehler zu vermeiden. Die Art und Weise, wie ein Sprachmodell angewiesen wird, kann ebenfalls einen Einfluss auf die Wahrscheinlichkeit von Halluzinationen haben; präzise und spezifische Fragen können die Genauigkeit der Antworten verbessern.
Schließlich kann die Kombination von Sprachmodellen mit anderen KI-Systemen oder wissensbasierten Datenbanken dazu beitragen, die generierten Informationen auf ihre Plausibilität und Korrektheit zu überprüfen. Trotz der Schwierigkeiten, Halluzinationen vollständig zu verhindern, können diese Maßnahmen dazu beitragen, ihre Häufigkeit und ihre negativen Auswirkungen zu reduzieren.
Zwischenschritte sind nicht sichtbar
Damit der Chain-of-Thought-Prozess funktioniert, müssen die Modelle die internen Denkprozesse in unveränderter Form ausdrücken können - ohne dass Einschränkungen gelten, weil die Denkprozesse nicht an die Öffentlichkeit gelangen sollen. Daher hat sich OpenAI entschlossen, diese unzensierten Zwischenschritte dem Nutzer nicht direkt sichtbar zu machen.
Die o1-Modelle erzeugen am Ende eine Zusammenfassung des Denkvorgangs. Eine Entscheidung, die durchaus Nachteile für die Nutzung mit sich bringt, wie OpenAI bei der Ankündigung der Modelle einräumen muss(öffnet im neuen Fenster) . Denn auch eine Zusammenfassung kann wieder Fehler und Ungenauigkeiten aufweisen. Besser wäre es, die unveränderte Ausgabe (raw output) der Gedankengänge zu sehen, was OpenAI aber aus Gründen von Datenschutz, Innovationshöhe und Ähnlichem abgelehnt hat.
Wer doch versucht, sich von ChatGPT die internen Gedankengänge erläutern zu lassen, erhält nach einigen Versuchen eine Support-E-Mail von OpenAI, in der erläutert wird, warum das nicht möglich und nicht erwünscht ist.
Verfügbarkeit und Zugang
Die Verfügbarkeit der o1-Modelle von OpenAI ist derzeit eingeschränkt. Kunden von ChatGPT Plus und Team erhalten zu Beginn Zugang zur Vorschau von o1 und dem kleineren Schwestermodell o1 mini. Für die Preview von o1 sind aktuell wöchentlich maximal 30 Nachrichten verfügbar, während für die Preview von o1 mini 50 Nachrichten pro Woche zur Verfügung stehen.
Entwickler mit API-Zugang Tier 5 können das neue Modell ebenfalls testen. In den kommenden Tagen plant OpenAI, den Zugang zu o1 auch für Kunden von ChatGPT Enterprise und Edu freizuschalten.
Risiken der o1-Modelle
Laut OpenAI ist o1 in vielerlei Hinsicht sicherer als andere, hauseigene Modelle, birgt aber ein "mittleres Risiko" im Zusammenhang mit der Frage, ob sich chemische, biologische, radiologische und nukleare (CBRN) Bedrohungen durch Menschen mit dem entsprechenden Fachwissen reproduzieren lassen.
Die Bewertungen von OpenAI haben ergeben, dass o1-preview und o1-mini ihnen bei der operativen Planung zur Reproduktion einer bekannten biologischen Bedrohung helfen könnten. Das bezeichnet OpenAI als die mittlere Risikogrenze, da diese Experten bereits über umfangreiche Fachkenntnisse verfügen (daher begrenztes Risiko). Diese Fähigkeit kann aber ein Frühindikator für zukünftige Entwicklungen sein.
OpenAI hat die Ergebnisse zahlreicher Tests veröffentlicht, die zeigen, dass o1 in vielerlei Hinsicht ein sichereres Modell als die früheren GPT-Modelle ist. Es ist schwerer zu knacken und produziert weniger toxische, voreingenommene oder diskriminierende Antworten.
Ein biologischer Angriff im Kontext von Sprachmodellen ist eine Metapher und bezieht sich nicht auf einen tatsächlichen biologischen Angriff, wie etwa den Einsatz von biologischen Waffen. Stattdessen beschreibt dieser Begriff bestimmte Arten von Angriffen auf Sprachmodelle oder KI-Systeme, die darauf abzielen, diese Systeme zu manipulieren, zu täuschen oder deren Funktionsweise zu beeinträchtigen. Es gibt verschiedene Formen solcher Angriffe, von denen einige im Kontext von KI und maschinellem Lernen unter den Begriffen Adversarial Attacks(öffnet im neuen Fenster) oder Data Poisoning bekannt sind.
Interessanterweise stellte OpenAI in seinen Bewertungen fest, dass trotz der verbesserten Codierungsfähigkeiten weder o1-preview noch o1-mini im Vergleich zu GPT-4 ein signifikant erhöhtes Risiko aufweisen, jemandem bei der Durchführung eines ausgeklügelten Cyberangriffs zu helfen.
Allerdings empörten sich (KI-)Sicherheitsexperten nach der Veröffentlichung über OpenAIs Sicherheitsbewertungen. Am meisten Aufsehen erregte die Entscheidung von OpenAI, sein eigenes Modell als "mittleres Risiko" einzustufen(öffnet im neuen Fenster) , einer Person bei der Durchführung eines biologischen Anschlags zu helfen.
OpenAI hatte gesagt, dass es nur Modelle veröffentlichen werde, die es als "mittleres Risiko" oder weniger einstuft. Daher untersuchen viele Forscher die von OpenAI veröffentlichten Informationen über den Prozess, mit dem es diese Einstufung vornimmt, um zu sehen, ob sie vernünftig erscheint oder ob OpenAI sich selbst zu milde eingestuft hat, um das Modell dennoch veröffentlichen zu können.
Forscher sind uneins über OpenAIs Risikoeinstufung von KI-Modellen; einige kritisieren die mangelnde Transparenz und befürchten eine Unterschätzung der Risiken, während andere den Versuch anerkennen, zwischen Innovation und Sicherheit zu balancieren. Sie betonen, dass die Risikobewertung dynamisch sein sollte, um sich an die sich entwickelnden Fähigkeiten und Gefahren von KI anzupassen. Insgesamt bleibt die Frage offen, ob OpenAIs "mittleres Risiko" angemessen ist oder ob es mehr Vorsicht erfordert.
KI-Sicherheitsexperten sind auch aus anderen Gründen besorgt über o1. OpenAI stufte o1 auch als "mittleres Risiko" in einer Gefahrenkategorie ein, die das Unternehmen als "Überzeugungskraft" bezeichnet. Sie beurteilt, wie leicht das Modell Menschen davon überzeugen kann, ihre Ansichten zu ändern oder die vom Modell empfohlenen Maßnahmen zu ergreifen.
Diese Überzeugungskraft könnte in den falschen Händen gefährlich sein. Es wäre auch gefährlich, wenn ein zukünftiges mächtiges KI-Modell eigene Absichten entwickeln und dann Menschen dazu bringen könnte, Aufgaben und Handlungen in seinem Namen auszuführen. Zumindest scheint diese Gefahr jedoch nicht allzu unmittelbar bevorzustehen.
Bei Sicherheitsbewertungen sowohl durch OpenAI als auch durch sogenannte externe Red-Teaming-Organisationen, die von OpenAI mit der Bewertung von o1 beauftragt wurden, zeigte das Modell keinerlei Anzeichen von Bewusstsein, Empfindungsvermögen oder Selbstbefreiung. Es wurde jedoch festgestellt, dass o1 Antworten gab, die auf ein größeres Selbstbewusstsein und Selbstwissen im Vergleich zu GPT-4 hinzudeuten schienen.
Fazit
Laut OpenAI ist die o1-Modellreihe ein Meilenstein. Im Gegensatz zu GPT-4 konzentrieren sich die o1-Modelle auf komplexes "Nachdenken" und bieten tiefergehende Lösungen für wissenschaftliche, mathematische und programmiertechnische Herausforderungen an. Dank fortschrittlicher Chain-of-Thought-Verfahren analysieren sie Probleme schrittweise, was sie zu leistungsfähigen Werkzeugen für Forscher und Entwickler machen könnte.
Die Ergebnisse sehen in der Tat gut aus. Für eine umfangreiche Einschätzung sind die Modelle aber noch zu frisch und müssen noch auf Herz und Nieren geprüft werden, um die Aussagen von OpenAI einordnen zu können.
Fabian Deitelhoff(öffnet im neuen Fenster) ist IT-Leiter bei Sportnavi.de GmbH und mit brickobotik in der Mint-Bildung und mit Loosely.Ruhr in der Cross-Plattform-Softwareentwicklung tätig. Seine Schwerpunkte sind Low- und No-Code und digitale Geschäftsmodelle.



