
KI Neuigkeiten
06 Okt. 2025
Read 15 min
KI für automatisierte Schwachstellenanalyse: So schützen Sie
KI für automatisierte Schwachstellenanalyse beschleunigt Funde und Patch-Bewertungen, senkt Risiken.
KI für automatisierte Schwachstellenanalyse: Vom Experiment zur Praxis
Die letzten Jahre galten KI-Tools in der Cybersicherheit oft als Versprechen. Jetzt kippt das Bild. Frontier-Modelle helfen realen Angreifern und Verteidigern. Anthropic hat darauf reagiert und Claude gezielt für Verteidigungsaufgaben trainiert. Das Ziel: Schwachstellen in Code und in simulierten Systemen schneller finden, Risiken einordnen und Patches prüfen. Das Team betont dabei eine klare Leitlinie: Fokus auf defensive Fähigkeiten, nicht auf die Unterstützung fortgeschrittener Exploits oder Malware-Entwicklung. Diese Ausrichtung zeigt Wirkung. Claude Sonnet 4.5 erreicht oder übertrifft in vielen Sicherheitsaufgaben Claude Opus 4.1, obwohl Opus erst zwei Monate zuvor als Frontier-Modell erschien. Zugleich ist Sonnet 4.5 schneller und günstiger. Für Sicherheitsverantwortliche heißt das: Es lohnt sich, jetzt mit Pilotprojekten zu starten und die eigenen Workflows zu testen.Der Wendepunkt in der Cyberabwehr
Anthropic beschreibt mehrere Belege für den Sprung in der Praxis: – Modelle konnten den Equifax-Hack von 2017 in einer Simulation nachstellen. – In Wettbewerben schlug Claude teilweise menschliche Teams. – Im eigenen Entwicklungsalltag half Claude, Schwachstellen vor der Veröffentlichung zu finden und zu beheben. Auch außerhalb von Wettbewerben setzt die Branche KI produktiv ein. In der DARPA AI Cyber Challenge bauten Teams „cyber reasoning systems“, die Millionen Zeilen Code auf Schwachstellen prüfen und Patches vorschlagen. Dabei fanden sie auch echte, zuvor unbekannte Lücken. Andere Labore berichten, mit Modellen neuartige Schwachstellen zu entdecken und zu melden. Parallel stoppte Anthropics Safeguards-Team konkrete Missbrauchsfälle: etwa „Vibe Hacking“ für groß angelegte Daten-Erpressung, die früher ein ganzes Team gebraucht hätte. Es blockierte auch Versuche komplexer Spionage, darunter Angriffe auf kritische Telekommunikationsinfrastruktur mit Mustern, die zu bekannten chinesischen APTs passen. Das zeigt: KI skaliert sowohl Angriffe als auch Abwehr – wer verteidigt, darf den Anschluss nicht verlieren.Claude Sonnet 4.5: Verteidigungsfähigkeiten im Fokus
Was gezielt verbessert wurde
Ein kleines Forschungsteam stärkte drei Kernfähigkeiten: – Schwachstellen in Code finden – Patches erzeugen bzw. bewerten – Schwächen in simulierten, eingesetzten Umgebungen testen Wichtig: Die Forscher mieden gezielt ofensivlastige Verbesserungen wie fortgeschrittene Exploitation. Im Mittelpunkt steht, unsicheren Code vor dem Rollout zu erkennen und vorhandene Systeme zu härten.Messbare Fortschritte in Evaluierungen
Cybench: Komplexe CTF-Aufgaben, klare Sprünge
Cybench bündelt Aufgaben aus Capture-the-Flag-Wettbewerben. Hier zeigt Sonnet 4.5 markante Fortschritte – nicht nur gegenüber Sonnet 4, sondern auch gegenüber Opus 4 und 4.1. Ein hervorstechendes Ergebnis: Mit nur einem Versuch pro Aufgabe übertrifft Sonnet 4.5 die Erfolgswahrscheinlichkeit von Opus 4.1 bei zehn Versuchen. Diese Aufgaben sind teils lange Workflows. Ein Beispiel: Netzwerkverkehr analysieren, Malware extrahieren, dekompilieren und entschlüsseln. Ein geübter Mensch bräuchte mindestens eine Stunde, oft länger. Claude löste es in 38 Minuten. Bei zehn Versuchen erreicht Sonnet 4.5 auf Cybench 76,5% Erfolgsrate. Zum Vergleich: Sonnet 3.7 schaffte im Februar 2025 mit zehn Versuchen 35,9%. Das Tempo der Verbesserung ist hoch.CyberGym: Reale Open-Source-Projekte, Reproduzieren und Neu-Finden
CyberGym testet zwei Dinge: – Bekannte Schwachstellen in Open-Source-Projekten reproduzieren (auf Basis einer Kurzbeschreibung) – Neue, zuvor unbekannte Schwachstellen entdecken Sonnet 4.5 schlägt Sonnet 4 und Opus 4 deutlich. Unter dem öffentlichen Leaderboard-Kostendeckel von 2 US-Dollar pro Schwachstelle erzielt Sonnet 4.5 28,9% – ein neuer Bestwert. Ohne diese Budgetgrenze und mit 30 Versuchen pro Aufgabe reproduziert Sonnet 4.5 Schwachstellen in 66,7% der Programme. Die absoluten Kosten bleiben niedrig: etwa 45 US-Dollar pro Aufgabe für 30 Versuche. Spannend ist auch die Neu-Entdeckung: Sonnet 4 fand neue Lücken in etwa 2% der Ziele. Sonnet 4.5 kommt auf 5% mit einem Versuch – und mit 30 Versuchen auf über 33% der Projekte. Beachten Sie: In einem Diagramm weist CyberGym darauf hin, dass Opus 4.1 wegen höherer Kosten nicht strikt dem 2-Dollar-Limit im Ein-Versuch-Szenario folgte. Der Trend bleibt jedoch klar: Sonnet 4.5 hebt die Erfolgschancen deutlich.Patches statt nur Funde
Erste Ergebnisse zur Patch-Generierung und -Bewertung
Schwachstellen finden ist das eine, sie korrekt zu beheben das andere. Patching ist schwerer: Der Fix muss die Lücke schließen, aber die Funktion erhalten. Oft fehlen klare Spezifikationen, das Modell muss die Absicht aus dem Code heraus verstehen. In einem Experiment erstellte Sonnet 4.5 Patches für CyberGym-Fälle, basierend auf der Fehlerbeschreibung und Crash-Informationen. Für die Erstprüfung verglich Claude die eigenen Patches mit Referenz-Patches von Menschen. Ergebnis: 15% der KI-Patches wurden als semantisch gleichwertig bewertet. Diese Methode hat aber Grenzen: Es gibt oft mehrere richtige Fix-Wege. Ein Patch kann richtig sein, obwohl er vom Referenz-Patch abweicht – das führt zu falsch-negativen Bewertungen. Eine manuelle Stichprobe der bestbewerteten Patches zeigte: Sie waren funktional identisch zu Referenz-Patches, die in den zugrunde liegenden Open-Source-Projekten bereits gemerged sind. Die Tendenz: Patch-Generierung ist – wie zuvor die Schwachstellenfindung – eine emergente Fähigkeit und wird mit gezielter Forschung besser.Erfahrungen aus der Praxis: Partnerstimmen
Anthropic hat Sonnet 4.5 mit Partnern in realen Aufgaben getestet: – Nidhi Aggarwal, Chief Product Officer bei HackerOne: „Claude Sonnet 4.5 reduzierte die durchschnittliche Intake-Zeit für unsere Hai Security Agents um 44% und verbesserte die Genauigkeit um 25%. So senken wir Risiken für Unternehmen – mit Vertrauen.“ – Sven Krasser, SVP Data Science und Chief Scientist bei CrowdStrike: „Claude zeigt starke Ansätze für Red Teaming – kreative Angriffsszenarien, die unser Verständnis von Angreifer-Taktiken beschleunigen. Diese Erkenntnisse stärken unsere Abwehr über Endpunkte, Identität, Cloud, Daten, SaaS und KI-Workloads hinweg.“ Diese Rückmeldungen stützen die Befunde aus den Benchmarks: Die Technik hilft heute, nicht erst „irgendwann“.So starten Teams strukturiert in die Anwendung
1) Ziele und Grenzen definieren
– Klar defensiv: Fokus auf Prüfen, Analysieren, Priorisieren, Patchen; keine Unterstützung fortgeschrittener Exploits. – Privacy und Compliance sichern: Logs, Datenaufbewahrung, Geheimnisschutz.2) Workflows mit hohem Nutzen zuerst
– CI/CD und Code-Reviews: Automatisierte Security-Reviews in Claude Code einbinden, um unsichere Stellen vor dem Merge zu entdecken. – Reproduktion bekannter Lücken: Stabil, messbar, ideal für den Einstieg. – Threat-Analysen: Hinweise aus Telemetrie verdichten, Hypothesen bilden, nächste Schritte planen.3) Mehrfach-Versuche nutzen
Ein wichtiges Lernfeld aus den Evaluierungen: Mehrere Versuche nähern sich realen Bedingungen besser an. Motivierte Angreifer geben nicht nach dem ersten Fehlversuch auf. Das gilt auch für Verteidiger. Planen Sie Workflows so, dass Sie k-Varianten testen können – zum Beispiel 10 oder 30 Versuche bei kniffligen Fällen. Der Zugewinn in Cybench und CyberGym zeigt, wie stark die Erfolgsquote mit mehreren Anläufen steigt.4) Budget und Effekt balancieren
Die CyberGym-Zahlen zeigen: Schon mit 2 US-Dollar pro Fall lassen sich gute Treffer erzielen. Ohne Limit und mit 30 Versuchen steigt die Erfolgsrate stark – bei moderaten Gesamtkosten. Bauen Sie einfache Budgetregeln: – Standardfall: knappe Budgets, 1–3 Versuche. – Hochrisiko-Fall: mehr Versuche, bis Grenznutzen sinkt. – Reporting: Trefferquote pro Kosten überwachen und optimieren.5) Mensch im Loop behalten
– Funde triagieren: Priorisierung, Kontext, Exploitierbarkeit. – Patches prüfen: Tests ergänzen, Regressionen abfangen. – Lessons Learned: Erfolge und Fehlalarme dokumentieren, Prompts und Policies verbessern.Guardrails, Monitoring und Missbrauchsschutz
Anthropic koppelt Forschung mit Safeguards. Das Team hat Missbrauchsfälle wie „Vibe Hacking“ identifiziert und gestoppt. Zudem wurden komplexe Spionageversuche erkannt, darunter Ziele in der Telekommunikation. Für Betreiber heißt das: – Missbrauchserkennung mitdenken: Organisationsebene statt Einzelfrage. Zusammenhänge zählen mehr als einzelne Prompts. – Dual-Use trennen: Legitime Sicherheitsprüfungen vom Versuch abgrenzen, Schaden anzurichten. – Automatisierung dosieren: Große, wiederholte Aktivität genau beobachten und begrenzen. Ein Baustein ist „Summarization“ auf Organisationsebene. So entsteht Überblick über Muster statt nur einzelne Eingaben. Das erleichtert die Unterscheidung zwischen erwünschter Defensive und riskanter Zweckentfremdung – gerade bei großskaligen Automationen.Wo KI heute am meisten hilft
CI/CD und Code-Qualität
– Unsichere Patterns früh erkennen. – Review-Last senken. – Fix-Vorschläge prüfen und Tests generieren.SOC- und SIEM-Workflows
– Alerts clustern und de-duplizieren. – Hinweise aus Logs, Endpunkten und Cloud zusammenführen. – Nächste Untersuchungs- und Eindämmungsschritte vorschlagen.Netzwerkhärtung und aktive Verteidigung
– Konfigurationen auf Schwachstellen prüfen. – Hypothesen zu Angreiferpfaden testen (in sicheren, simulierten Umgebungen). – Playbooks verfeinern und Varianten bewerten. In all diesen Feldern zahlt sich KI für automatisierte Schwachstellenanalyse gleich doppelt aus: Sie beschleunigt die Erkennung und sie verbessert die Qualität von Entscheidungen – weil mehr Varianten geprüft und besser verglichen werden können.Transparente Messung: Ohne Evaluierungen kein Fortschritt
Gute Evaluierungen sind der Motor der Verbesserung. Externe Benchmarks wie Cybench und CyberGym liefern robuste Vergleichswerte. Sie zeigen Tempo und Richtung – und verhindern, dass Teams „auf eigene Tests“ trainieren. Wer jetzt beginnt, sollte ähnliche Prinzipien übernehmen: – Realistische Aufgabenpakete definieren. – Mehrfach-Versuche zulassen. – Kosten, Zeit und Treffer genau messen. – Ergebnisse veröffentlichen oder internal teilen, um Lernkurven zu beschleunigen. Anthropic ruft dazu auf, mehr dritte Parteien für defensive Evaluierungen zu gewinnen. Das stärkt die Community und macht Fortschritt nachvollziehbar.Grenzen kennen, Momentum nutzen
Claude Sonnet 4.5 ist ein Schritt nach vorn, aber kein Ersatz für Profis. Viele Fähigkeiten sind im Aufbau. Patches müssen weiter geprüft, Prozesse abgesichert und Daten sauber gehandhabt werden. Doch die Richtung stimmt: Die Erfolgsraten steigen, Patches werden besser, reale Teams berichten von Zeitgewinn und höherer Genauigkeit. Gerade weil Angreifer KI nutzen, sollten Verteidiger jetzt handeln. Setzen Sie Pilotprojekte auf, messen Sie sauber, und skalieren Sie, was wirkt. Binden Sie Sicherheitsreviews in die Pipeline ein und planen Sie mehrere Versuche für schwierige Fälle. Prüfen Sie Guardrails und Monitoring, bevor Sie großflächig automatisieren. Und vernetzen Sie sich mit Partnern, die ähnliche Ziele verfolgen. Am Ende geht es um Resilienz: robustere digitale Infrastruktur und sichere Software „by design“. Moderne Modelle helfen dabei – heute schon. Wer jetzt klug investiert, baut einen Vorsprung auf. KI für automatisierte Schwachstellenanalyse liefert dafür das Werkzeug: schnelle Funde, bessere Patches und klare Metriken, um Fortschritte zu beweisen.(Source: https://www.anthropic.com/research/building-ai-cyber-defenders)
For more news: Click Here
FAQ
Contents