GPT 5.3 Codex Spark: OpenAI startet erstes KI-Modell ohne Nvidia-Hardware
GPT 5.3 Codex , OpenAIs Sprachmodell für Programmieraufgaben, wird vielfach für seine guten Ergebnisse und komplexen Problemlösefähigkeiten gelobt. Allerdings braucht Codex teils recht lang. Der neu vorgestellte kleine Ableger GPT 5.3 Codex Spark(öffnet im neuen Fenster) soll nun deutlich schneller reagieren – laut OpenAI in Echtzeit.
Dafür nannte das Unternehmen drei Gründe. Zunächst nimmt Codex Spark weniger umfangreiche Änderungen am Code vor als die reguläre Variante. Das Modell dürfte auch weniger Parameter haben, der Kontext hat mit 128k Tokens zudem nur knapp ein Drittel der Kapazität von Codex.
Weiterhin ist das Geschwindigkeitsplus auf andere Hardware zurückzuführen: Es läuft als erstes OpenAI-Modell nicht auf Nvidia-GPUs, sondern auf Cerebras Waferscale Engine 3 (WSE3) . Wie die Namen von Unternehmen und Beschleuniger andeuten, ist die WSE3 speziell für KI-Anwendungen entworfen und besteht aus einem vollständigen 300-mm-Wafer. Insbesondere bei Inferenz, der Verarbeitung trainierter Modelle, soll sie deutlich schneller sein als Nvidias GPUs. Diese kritisierte OpenAI kürzlich als zu langsam .
Als letzten Grund für die niedrigere Reaktionszeit gab das Unternehmen eine Optimierung des Kommunikationsaufwands an. Für Codex Spark werden persistente Websockets eingesetzt, welche die Verbindung zum Server aufrechterhalten. Dadurch sollen insbesondere die Roundtrip-Zeit sowie die Latenz bei der Ausgabe des ersten Tokens deutlich gesunken sein.
Vorerst nur als Preview für Pro-Kunden
Nutzen können Codex Spark vorerst nur Abonnenten der Pro-Variante. OpenAI begrenzt die Nutzung und behält sich eine Anpassung dieses Rate Limits in Abhängigkeit von der Nachfrage vor. Dafür wird die Spark-Nutzung nicht auf andere Rate Limits angerechnet.
Von OpenAI gezeigte Benchmark-Ergebnisse zeigen, dass Codex Spark Aufgaben deutlich schneller bearbeitet als die reguläre Variante. Das geht allerdings auf Kosten der Genauigkeit – im Benchmark Terminal Bench 2.0 kommt Codex Spark laut OpenAI auf 58,4 Prozent, die reguläre Variante schafft 77,3 Prozent. Für SWE-Bench Pro werden 51,5 Prozent und 56,8 Prozent genannt, jeweils bei maximalem Reasoning-Aufwand. Codex braucht dabei allerdings mehr als siebenmal so lange wie die Spark-Variante.
Codex Spark ist für OpenAI auch ein Versuchsfeld: Das Unternehmen erkundet damit, wie die WSE3 in den eigenen Hardware-Stack integriert werden kann. Künftig sollen weitere Modelle darauf laufen, auch die Optimierungen der Client-Server-Kommunikation sollen anderen Modellen zugutekommen. Langfristig will OpenAI die beiden Codex-Varianten zusammenführen – komplexere Aufgaben mit langer Ausführungszeit sollen an Agenten delegiert werden, wodurch eine Interaktion in Echtzeit möglich bleibt.
Die Kooperation mit Cerebras ist Teil von OpenAIs Bestrebungen, weniger abhängig von Nvidia-Hardware zu werden. Da die Versuche, eigene Hardware zu entwickeln, bislang erfolglos blieben, schloss OpenAI zuletzt neben Cerebras auch einen Vertrag mit AMD . Dabei geht es um die Lieferung von MI400-Beschleunigern, mutmaßlich des zur CES 2026 gezeigten MI455X .
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.



