Insights KI Neuigkeiten KI für automatisierte Schwachstellenanalyse: So schützen Sie
post

KI Neuigkeiten

06 Okt. 2025

Read 15 min

KI für automatisierte Schwachstellenanalyse: So schützen Sie

KI für automatisierte Schwachstellenanalyse beschleunigt Funde und Patch-Bewertungen, senkt Risiken.

Viele Sicherheitsteams stehen unter Druck: Angriffe werden schneller, komplexer und günstiger. KI für automatisierte Schwachstellenanalyse hilft, Code und Systeme früh zu prüfen, Lücken zu erkennen und Patches schneller zu bewerten. Neue Daten zeigen: Moderne Modelle wie Claude Sonnet 4.5 leisten das heute in der Praxis – nicht nur im Labor.

KI für automatisierte Schwachstellenanalyse: Vom Experiment zur Praxis

Die letzten Jahre galten KI-Tools in der Cybersicherheit oft als Versprechen. Jetzt kippt das Bild. Frontier-Modelle helfen realen Angreifern und Verteidigern. Anthropic hat darauf reagiert und Claude gezielt für Verteidigungsaufgaben trainiert. Das Ziel: Schwachstellen in Code und in simulierten Systemen schneller finden, Risiken einordnen und Patches prüfen. Das Team betont dabei eine klare Leitlinie: Fokus auf defensive Fähigkeiten, nicht auf die Unterstützung fortgeschrittener Exploits oder Malware-Entwicklung. Diese Ausrichtung zeigt Wirkung. Claude Sonnet 4.5 erreicht oder übertrifft in vielen Sicherheitsaufgaben Claude Opus 4.1, obwohl Opus erst zwei Monate zuvor als Frontier-Modell erschien. Zugleich ist Sonnet 4.5 schneller und günstiger. Für Sicherheitsverantwortliche heißt das: Es lohnt sich, jetzt mit Pilotprojekten zu starten und die eigenen Workflows zu testen.

Der Wendepunkt in der Cyberabwehr

Anthropic beschreibt mehrere Belege für den Sprung in der Praxis: – Modelle konnten den Equifax-Hack von 2017 in einer Simulation nachstellen. – In Wettbewerben schlug Claude teilweise menschliche Teams. – Im eigenen Entwicklungsalltag half Claude, Schwachstellen vor der Veröffentlichung zu finden und zu beheben. Auch außerhalb von Wettbewerben setzt die Branche KI produktiv ein. In der DARPA AI Cyber Challenge bauten Teams „cyber reasoning systems“, die Millionen Zeilen Code auf Schwachstellen prüfen und Patches vorschlagen. Dabei fanden sie auch echte, zuvor unbekannte Lücken. Andere Labore berichten, mit Modellen neuartige Schwachstellen zu entdecken und zu melden. Parallel stoppte Anthropics Safeguards-Team konkrete Missbrauchsfälle: etwa „Vibe Hacking“ für groß angelegte Daten-Erpressung, die früher ein ganzes Team gebraucht hätte. Es blockierte auch Versuche komplexer Spionage, darunter Angriffe auf kritische Telekommunikationsinfrastruktur mit Mustern, die zu bekannten chinesischen APTs passen. Das zeigt: KI skaliert sowohl Angriffe als auch Abwehr – wer verteidigt, darf den Anschluss nicht verlieren.

Claude Sonnet 4.5: Verteidigungsfähigkeiten im Fokus

Was gezielt verbessert wurde

Ein kleines Forschungsteam stärkte drei Kernfähigkeiten: – Schwachstellen in Code finden – Patches erzeugen bzw. bewerten – Schwächen in simulierten, eingesetzten Umgebungen testen Wichtig: Die Forscher mieden gezielt ofensivlastige Verbesserungen wie fortgeschrittene Exploitation. Im Mittelpunkt steht, unsicheren Code vor dem Rollout zu erkennen und vorhandene Systeme zu härten.

Messbare Fortschritte in Evaluierungen

Cybench: Komplexe CTF-Aufgaben, klare Sprünge

Cybench bündelt Aufgaben aus Capture-the-Flag-Wettbewerben. Hier zeigt Sonnet 4.5 markante Fortschritte – nicht nur gegenüber Sonnet 4, sondern auch gegenüber Opus 4 und 4.1. Ein hervorstechendes Ergebnis: Mit nur einem Versuch pro Aufgabe übertrifft Sonnet 4.5 die Erfolgswahrscheinlichkeit von Opus 4.1 bei zehn Versuchen. Diese Aufgaben sind teils lange Workflows. Ein Beispiel: Netzwerkverkehr analysieren, Malware extrahieren, dekompilieren und entschlüsseln. Ein geübter Mensch bräuchte mindestens eine Stunde, oft länger. Claude löste es in 38 Minuten. Bei zehn Versuchen erreicht Sonnet 4.5 auf Cybench 76,5% Erfolgsrate. Zum Vergleich: Sonnet 3.7 schaffte im Februar 2025 mit zehn Versuchen 35,9%. Das Tempo der Verbesserung ist hoch.

CyberGym: Reale Open-Source-Projekte, Reproduzieren und Neu-Finden

CyberGym testet zwei Dinge: – Bekannte Schwachstellen in Open-Source-Projekten reproduzieren (auf Basis einer Kurzbeschreibung) – Neue, zuvor unbekannte Schwachstellen entdecken Sonnet 4.5 schlägt Sonnet 4 und Opus 4 deutlich. Unter dem öffentlichen Leaderboard-Kostendeckel von 2 US-Dollar pro Schwachstelle erzielt Sonnet 4.5 28,9% – ein neuer Bestwert. Ohne diese Budgetgrenze und mit 30 Versuchen pro Aufgabe reproduziert Sonnet 4.5 Schwachstellen in 66,7% der Programme. Die absoluten Kosten bleiben niedrig: etwa 45 US-Dollar pro Aufgabe für 30 Versuche. Spannend ist auch die Neu-Entdeckung: Sonnet 4 fand neue Lücken in etwa 2% der Ziele. Sonnet 4.5 kommt auf 5% mit einem Versuch – und mit 30 Versuchen auf über 33% der Projekte. Beachten Sie: In einem Diagramm weist CyberGym darauf hin, dass Opus 4.1 wegen höherer Kosten nicht strikt dem 2-Dollar-Limit im Ein-Versuch-Szenario folgte. Der Trend bleibt jedoch klar: Sonnet 4.5 hebt die Erfolgschancen deutlich.

Patches statt nur Funde

Erste Ergebnisse zur Patch-Generierung und -Bewertung

Schwachstellen finden ist das eine, sie korrekt zu beheben das andere. Patching ist schwerer: Der Fix muss die Lücke schließen, aber die Funktion erhalten. Oft fehlen klare Spezifikationen, das Modell muss die Absicht aus dem Code heraus verstehen. In einem Experiment erstellte Sonnet 4.5 Patches für CyberGym-Fälle, basierend auf der Fehlerbeschreibung und Crash-Informationen. Für die Erstprüfung verglich Claude die eigenen Patches mit Referenz-Patches von Menschen. Ergebnis: 15% der KI-Patches wurden als semantisch gleichwertig bewertet. Diese Methode hat aber Grenzen: Es gibt oft mehrere richtige Fix-Wege. Ein Patch kann richtig sein, obwohl er vom Referenz-Patch abweicht – das führt zu falsch-negativen Bewertungen. Eine manuelle Stichprobe der bestbewerteten Patches zeigte: Sie waren funktional identisch zu Referenz-Patches, die in den zugrunde liegenden Open-Source-Projekten bereits gemerged sind. Die Tendenz: Patch-Generierung ist – wie zuvor die Schwachstellenfindung – eine emergente Fähigkeit und wird mit gezielter Forschung besser.

Erfahrungen aus der Praxis: Partnerstimmen

Anthropic hat Sonnet 4.5 mit Partnern in realen Aufgaben getestet: – Nidhi Aggarwal, Chief Product Officer bei HackerOne: „Claude Sonnet 4.5 reduzierte die durchschnittliche Intake-Zeit für unsere Hai Security Agents um 44% und verbesserte die Genauigkeit um 25%. So senken wir Risiken für Unternehmen – mit Vertrauen.“ – Sven Krasser, SVP Data Science und Chief Scientist bei CrowdStrike: „Claude zeigt starke Ansätze für Red Teaming – kreative Angriffsszenarien, die unser Verständnis von Angreifer-Taktiken beschleunigen. Diese Erkenntnisse stärken unsere Abwehr über Endpunkte, Identität, Cloud, Daten, SaaS und KI-Workloads hinweg.“ Diese Rückmeldungen stützen die Befunde aus den Benchmarks: Die Technik hilft heute, nicht erst „irgendwann“.

So starten Teams strukturiert in die Anwendung

1) Ziele und Grenzen definieren

– Klar defensiv: Fokus auf Prüfen, Analysieren, Priorisieren, Patchen; keine Unterstützung fortgeschrittener Exploits. – Privacy und Compliance sichern: Logs, Datenaufbewahrung, Geheimnisschutz.

2) Workflows mit hohem Nutzen zuerst

– CI/CD und Code-Reviews: Automatisierte Security-Reviews in Claude Code einbinden, um unsichere Stellen vor dem Merge zu entdecken. – Reproduktion bekannter Lücken: Stabil, messbar, ideal für den Einstieg. – Threat-Analysen: Hinweise aus Telemetrie verdichten, Hypothesen bilden, nächste Schritte planen.

3) Mehrfach-Versuche nutzen

Ein wichtiges Lernfeld aus den Evaluierungen: Mehrere Versuche nähern sich realen Bedingungen besser an. Motivierte Angreifer geben nicht nach dem ersten Fehlversuch auf. Das gilt auch für Verteidiger. Planen Sie Workflows so, dass Sie k-Varianten testen können – zum Beispiel 10 oder 30 Versuche bei kniffligen Fällen. Der Zugewinn in Cybench und CyberGym zeigt, wie stark die Erfolgsquote mit mehreren Anläufen steigt.

4) Budget und Effekt balancieren

Die CyberGym-Zahlen zeigen: Schon mit 2 US-Dollar pro Fall lassen sich gute Treffer erzielen. Ohne Limit und mit 30 Versuchen steigt die Erfolgsrate stark – bei moderaten Gesamtkosten. Bauen Sie einfache Budgetregeln: – Standardfall: knappe Budgets, 1–3 Versuche. – Hochrisiko-Fall: mehr Versuche, bis Grenznutzen sinkt. – Reporting: Trefferquote pro Kosten überwachen und optimieren.

5) Mensch im Loop behalten

– Funde triagieren: Priorisierung, Kontext, Exploitierbarkeit. – Patches prüfen: Tests ergänzen, Regressionen abfangen. – Lessons Learned: Erfolge und Fehlalarme dokumentieren, Prompts und Policies verbessern.

Guardrails, Monitoring und Missbrauchsschutz

Anthropic koppelt Forschung mit Safeguards. Das Team hat Missbrauchsfälle wie „Vibe Hacking“ identifiziert und gestoppt. Zudem wurden komplexe Spionageversuche erkannt, darunter Ziele in der Telekommunikation. Für Betreiber heißt das: – Missbrauchserkennung mitdenken: Organisationsebene statt Einzelfrage. Zusammenhänge zählen mehr als einzelne Prompts. – Dual-Use trennen: Legitime Sicherheitsprüfungen vom Versuch abgrenzen, Schaden anzurichten. – Automatisierung dosieren: Große, wiederholte Aktivität genau beobachten und begrenzen. Ein Baustein ist „Summarization“ auf Organisationsebene. So entsteht Überblick über Muster statt nur einzelne Eingaben. Das erleichtert die Unterscheidung zwischen erwünschter Defensive und riskanter Zweckentfremdung – gerade bei großskaligen Automationen.

Wo KI heute am meisten hilft

CI/CD und Code-Qualität

– Unsichere Patterns früh erkennen. – Review-Last senken. – Fix-Vorschläge prüfen und Tests generieren.

SOC- und SIEM-Workflows

– Alerts clustern und de-duplizieren. – Hinweise aus Logs, Endpunkten und Cloud zusammenführen. – Nächste Untersuchungs- und Eindämmungsschritte vorschlagen.

Netzwerkhärtung und aktive Verteidigung

– Konfigurationen auf Schwachstellen prüfen. – Hypothesen zu Angreiferpfaden testen (in sicheren, simulierten Umgebungen). – Playbooks verfeinern und Varianten bewerten. In all diesen Feldern zahlt sich KI für automatisierte Schwachstellenanalyse gleich doppelt aus: Sie beschleunigt die Erkennung und sie verbessert die Qualität von Entscheidungen – weil mehr Varianten geprüft und besser verglichen werden können.

Transparente Messung: Ohne Evaluierungen kein Fortschritt

Gute Evaluierungen sind der Motor der Verbesserung. Externe Benchmarks wie Cybench und CyberGym liefern robuste Vergleichswerte. Sie zeigen Tempo und Richtung – und verhindern, dass Teams „auf eigene Tests“ trainieren. Wer jetzt beginnt, sollte ähnliche Prinzipien übernehmen: – Realistische Aufgabenpakete definieren. – Mehrfach-Versuche zulassen. – Kosten, Zeit und Treffer genau messen. – Ergebnisse veröffentlichen oder internal teilen, um Lernkurven zu beschleunigen. Anthropic ruft dazu auf, mehr dritte Parteien für defensive Evaluierungen zu gewinnen. Das stärkt die Community und macht Fortschritt nachvollziehbar.

Grenzen kennen, Momentum nutzen

Claude Sonnet 4.5 ist ein Schritt nach vorn, aber kein Ersatz für Profis. Viele Fähigkeiten sind im Aufbau. Patches müssen weiter geprüft, Prozesse abgesichert und Daten sauber gehandhabt werden. Doch die Richtung stimmt: Die Erfolgsraten steigen, Patches werden besser, reale Teams berichten von Zeitgewinn und höherer Genauigkeit. Gerade weil Angreifer KI nutzen, sollten Verteidiger jetzt handeln. Setzen Sie Pilotprojekte auf, messen Sie sauber, und skalieren Sie, was wirkt. Binden Sie Sicherheitsreviews in die Pipeline ein und planen Sie mehrere Versuche für schwierige Fälle. Prüfen Sie Guardrails und Monitoring, bevor Sie großflächig automatisieren. Und vernetzen Sie sich mit Partnern, die ähnliche Ziele verfolgen. Am Ende geht es um Resilienz: robustere digitale Infrastruktur und sichere Software „by design“. Moderne Modelle helfen dabei – heute schon. Wer jetzt klug investiert, baut einen Vorsprung auf. KI für automatisierte Schwachstellenanalyse liefert dafür das Werkzeug: schnelle Funde, bessere Patches und klare Metriken, um Fortschritte zu beweisen.

(Source: https://www.anthropic.com/research/building-ai-cyber-defenders)

For more news: Click Here

FAQ

Q: Was versteht man unter „KI für automatisierte Schwachstellenanalyse“ und warum ist das relevant für Sicherheitsteams? A: KI für automatisierte Schwachstellenanalyse bezeichnet den Einsatz großer Modelle zur automatischen Prüfung von Code und Systemen auf Sicherheitslücken, um Probleme früh zu erkennen und Patches schneller zu bewerten. Moderne Modelle wie Claude Sonnet 4.5 zeigen, dass diese Technik inzwischen praktisch einsetzbar ist und Verteidigern hilft, mit der Geschwindigkeit von Angreifern Schritt zu halten. Q: Wie schneidet Claude Sonnet 4.5 im Vergleich zu früheren Modellen ab? A: Claude Sonnet 4.5 erreicht oder übertrifft in vielen Sicherheitsaufgaben Claude Opus 4.1 und ist zugleich schneller und kostengünstiger. Diese Fortschritte verdeutlichen, dass KI für automatisierte Schwachstellenanalyse in der Praxis bessere Ergebnisse bei Erkennung und Patch-Unterstützung liefern kann. Q: Welche Benchmarks belegen die Wirksamkeit von KI für automatisierte Schwachstellenanalyse? A: Externe Benchmarks wie Cybench und CyberGym zeigen markante Verbesserungen: Auf Cybench erzielt Sonnet 4.5 bei zehn Versuchen eine Erfolgsrate von 76,5%, auf CyberGym sind es unter dem 2‑Dollar‑Limit 28,9% und ohne Limit mit 30 Versuchen 66,7% bei der Reproduktion von Schwachstellen. Diese Werte belegen, dass KI für automatisierte Schwachstellenanalyse bekannte Lücken reproduzieren und bei mehrfachen Versuchen auch neue Lücken entdecken kann. Q: Wie sollten Teams praktisch mit KI für automatisierte Schwachstellenanalyse starten? A: Beginnen Sie mit klar definierten, rein defensiven Zielen, beachten Sie Datenschutz und Compliance und starten Sie Pilotprojekte zur Integration von KI für automatisierte Schwachstellenanalyse in CI/CD oder Code‑Reviews. Planen Sie Mehrfach‑Versuche (zum Beispiel 10 oder 30) und behalten Sie stets einen Menschen im Loop zur Triage und zur Prüfung von Patches. Q: Welche Grenzen und Risiken hat der Einsatz von KI für automatisierte Schwachstellenanalyse? A: KI für automatisierte Schwachstellenanalyse ersetzt keine Sicherheitsexperten, weil viele Fähigkeiten noch im Aufbau sind und Patches sorgfältig geprüft werden müssen. In Experimenten waren nur 15% der automatisch generierten Patches semantisch gleichwertig zu Referenzen, und es besteht Missbrauchsrisiko wie das im Artikel genannte „Vibe Hacking“, weshalb Guardrails nötig sind. Q: Wie sollten Organisationen Budget und Versuchszahlen für KI für automatisierte Schwachstellenanalyse abwägen? A: Die Empfehlung ist, Budgetregeln zu definieren: Standardfälle mit knappen Budgets und 1–3 Versuchen, bei Hochrisiko‑Fällen deutlich mehr Versuche, bis der Grenznutzen sinkt. Als Orientierung nennt der Artikel etwa 45 US‑Dollar für 30 Versuche, weshalb Organisationen Kosten pro Treffer messen und optimieren sollten. Q: Welche Guardrails und Monitoring‑Maßnahmen sind beim Einsatz von KI für automatisierte Schwachstellenanalyse wichtig? A: Organisationsebene‑Monitoring und Zusammenfassungen („Summarization“) helfen, Muster großer Aktivität zu erkennen und legitime Sicherheitsprüfungen von Missbrauch zu unterscheiden. Solche Guardrails sind zentral, wenn man KI für automatisierte Schwachstellenanalyse großflächig automatisiert, damit Wiederholungen und dual‑use‑Verhalten entdeckt und begrenzt werden. Q: Für welche konkreten Anwendungsfälle lohnt sich KI für automatisierte Schwachstellenanalyse heute besonders? A: Besonders geeignet sind CI/CD‑Integrationen für automatisierte Security‑Reviews, SOC‑ und SIEM‑Workflows zur Clusterung von Alerts sowie Netzwerk‑Härtung und simulierte Tests zu Angreiferpfaden. In diesen Feldern beschleunigt die KI die Erkennung, senkt die Review‑Last und verbessert Entscheidungen durch das Vergleichen mehrerer Varianten.

Contents