Zum Hauptinhalt Zur Navigation

Claude Opus 4.6: KI findet über 500 Zero-Day-Lücken in Open-Source-Software

Anthropics neues Sprachmodell Claude Opus 4.6 hat in internen Tests Hunderte bislang unbekannte Sicherheitslücken aufgespürt – ohne spezielles Training.
/ Andreas Donath
60 Kommentare News folgen (öffnet im neuen Fenster)
KI findet Sicherheitslücken. (Bild: Pexels)
KI findet Sicherheitslücken. Bild: Pexels

Das KI-Unternehmen Anthropic hat sein neues Modell Claude Opus 4.6 zunächst in einer kontrollierten Umgebung getestet, bevor es am Donnerstag veröffentlicht worden ist. Das sogenannte Frontier Red Team stattete Claude Opus 4.6 mit Standard-Werkzeugen wie Python, Debuggern und Fuzzern aus – verzichtete jedoch auf spezielle Anweisungen zur Schwachstellensuche, berichtet Axios(öffnet im neuen Fenster) .

Das Ergebnis(öffnet im neuen Fenster) übertraf laut Hersteller die Erwartungen: Das System identifizierte über 500 Zero-Day-Schwachstellen in quelloffener Software. Jeder Fund wurde entweder durch interne Teams oder externe Sicherheitsforscher validiert, so Axios weiter.

Von Ghostscript bis CGIF: Kritische Entdeckungen

Die Bandbreite der gefundenen Schwachstellen reicht von Systemabstürzen bis zu Problemen in der Speicherverwaltung. Besonders bemerkenswert: Claude entdeckte eine Sicherheitslücke in Ghostscript(öffnet im neuen Fenster) , einem weitverbreiteten Programm zur Verarbeitung von PDF- und Postscript-Dateien.

Weitere kritische Funde betrafen laut Axios Buffer-Overflow-Probleme in OpenSC(öffnet im neuen Fenster) , einer Software für Smart-Card-Daten, sowie in CGIF(öffnet im neuen Fenster) , einem Tool zur GIF-Verarbeitung. Die Stärke des Systems zeigt sich in seiner Fähigkeit, neue Analysemethoden zu entwickeln, wenn Standardtechniken versagen.

Bei Ghostscript durchsuchte Claude die Git-Commit-Historie, nachdem konventionelle Methoden und manuelle Code-Überprüfung erfolglos geblieben waren. Das Modell prüfte anschließend, ob ähnliche Schwachstellen an anderer Stelle existierten. Im Fall von CGIF ging das System noch weiter und erstellte eigenen Proof-of-Concept-Code, um das Sicherheitsproblem zu demonstrieren.

Schutzmaßnahmen und Community-Zugang

Parallel zu den erweiterten Fähigkeiten implementierte Anthropic laut Axios neue Sicherheitsvorkehrungen in seinem LLM. Echtzeit-Erkennungssysteme sollen potenziell schädliche Nutzungsmuster identifizieren und blockieren, damit Nutzer den Spieß nicht umdrehen und Schadsoftware mit KI entwickeln. Das Unternehmen räumt ein, dass diese Kontrollen legitime Sicherheitsforschung teilweise behindern könnten, und strebt eine Zusammenarbeit mit der Community an.


Relevante Themen