Claude Opus 4.6: KI findet über 500 Zero-Day-Lücken in Open-Source-Software
Das KI-Unternehmen Anthropic hat sein neues Modell Claude Opus 4.6 zunächst in einer kontrollierten Umgebung getestet, bevor es am Donnerstag veröffentlicht worden ist. Das sogenannte Frontier Red Team stattete Claude Opus 4.6 mit Standard-Werkzeugen wie Python, Debuggern und Fuzzern aus – verzichtete jedoch auf spezielle Anweisungen zur Schwachstellensuche, berichtet Axios(öffnet im neuen Fenster) .
Das Ergebnis(öffnet im neuen Fenster) übertraf laut Hersteller die Erwartungen: Das System identifizierte über 500 Zero-Day-Schwachstellen in quelloffener Software. Jeder Fund wurde entweder durch interne Teams oder externe Sicherheitsforscher validiert, so Axios weiter.
Von Ghostscript bis CGIF: Kritische Entdeckungen
Die Bandbreite der gefundenen Schwachstellen reicht von Systemabstürzen bis zu Problemen in der Speicherverwaltung. Besonders bemerkenswert: Claude entdeckte eine Sicherheitslücke in Ghostscript(öffnet im neuen Fenster) , einem weitverbreiteten Programm zur Verarbeitung von PDF- und Postscript-Dateien.
Weitere kritische Funde betrafen laut Axios Buffer-Overflow-Probleme in OpenSC(öffnet im neuen Fenster) , einer Software für Smart-Card-Daten, sowie in CGIF(öffnet im neuen Fenster) , einem Tool zur GIF-Verarbeitung. Die Stärke des Systems zeigt sich in seiner Fähigkeit, neue Analysemethoden zu entwickeln, wenn Standardtechniken versagen.
Bei Ghostscript durchsuchte Claude die Git-Commit-Historie, nachdem konventionelle Methoden und manuelle Code-Überprüfung erfolglos geblieben waren. Das Modell prüfte anschließend, ob ähnliche Schwachstellen an anderer Stelle existierten. Im Fall von CGIF ging das System noch weiter und erstellte eigenen Proof-of-Concept-Code, um das Sicherheitsproblem zu demonstrieren.
Schutzmaßnahmen und Community-Zugang
Parallel zu den erweiterten Fähigkeiten implementierte Anthropic laut Axios neue Sicherheitsvorkehrungen in seinem LLM. Echtzeit-Erkennungssysteme sollen potenziell schädliche Nutzungsmuster identifizieren und blockieren, damit Nutzer den Spieß nicht umdrehen und Schadsoftware mit KI entwickeln. Das Unternehmen räumt ein, dass diese Kontrollen legitime Sicherheitsforschung teilweise behindern könnten, und strebt eine Zusammenarbeit mit der Community an.
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.