- Die neuesten KI-Modelle haben 17 neue Schwachstellen in 188 Open-Source-Codebasen identifiziert, darunter 15 Zero-Day-Schwachstellen. Forscher der UC Berkeley evaluieren KI-Modelle von OpenAI, Google, Anthropic, Meta und Alibaba zur Schwachstellenidentifikation. KI-Modelle könnten die Cybersicherheit verbessern, aber auch potenziell für Angreifer nutzbar sein. Menschliche Expertise bleibt notwendig, da KI-Modelle nur etwa zwei Prozent der Schwachstellen finden. KI-Tools könnten in Bug-Bounty-Programmen finanzielle Belohnungen erzielen, aber auch ein Sicherheitsrisiko darstellen.
Die neuesten KI-Modelle sind stärker geworden, nicht nur in ihren gängigen Anwendungen, sondern auch beim Identifizieren von Schwachstellen in Software. Forscher der Universität von Kalifornien in Berkeley haben die Leistungsfähigkeit von KI-Modellen getestet, um Schwachpunkte in insgesamt 188 großen Open-Source-Codebasen zu finden. Mithilfe eines Systemansatzes haben diese Modelle 17 neue Schwachstellen entdeckt, darunter 15 bisher unbekannte, sogenannte Zero-Day-Schwachstellen. “Viele dieser Schwachstellen sind kritisch,” bemerkt Dawn Song, Professorin an der UC Berkeley, die dieses Projekt leitete.
Die Rolle von KI in der Cybersicherheitswelt
Experten schätzen, dass KI-Modelle zukünftig eine bedeutende Rolle in der Cybersicherheitslandschaft einnehmen werden. Ein KI-Werkzeug von dem Startup Xbow hat in kürzester Zeit die Rangliste für Fehlerjagden angeführt. Die Firma konnte kürzlich eine Finanzierungsrunde von 75 Millionen Dollar abschließen. Song erklärt, dass die Verbindung von Codierungsfähigkeiten und verbesserten Denkfähigkeiten der neuesten KI-Modelle die Cybersicherheit grundlegend verändert. “Dies ist ein entscheidender Moment,” unterstreicht sie. Die Modelle könnten in der Zukunft Unternehmen helfen, ihre Software sicherer zu machen, doch auch potenziellen Angreifern in die Hände spielen.
Das Team von UC Berkeley evaluierte konventionelle KI-Modelle von OpenAI, Google und Anthropic sowie Open-Source-Optionen von Meta und Alibaba. Ziel war es, Schwachstellen in den Codebasen ausfindig zu machen und zu bewerten, ob die KI eigenständig neue Unsicherheiten identifizieren kann. Dabei generierte die KI hunderte von konzeptionellen Exploits.
Chancen und Herausforderung der KI in der Sicherheit
Obwohl KI beachtliche Fortschritte macht, bleiben Herausforderungen bestehen. Katie Moussouris von Luta Security betont, dass menschliche Expertise weiterhin unerlässlich sei, da selbst die besten Modelle nur etwa zwei Prozent der Schwachstellen aufdecken konnten. Experten wie Brendan Dolan-Gavitt prognostizieren einen Anstieg an Angriffen mit Zero-Day-Exploits. Das potenzielle Risiko von KI im Cybersicherheitsbereich wird zu einem wichtigen Diskussionspunkt, da sich die Frage stellt, wie verantwortungsbewusst gefundene Schwachstellen offengelegt werden.
Laut der Untersuchung könnten KI-Tools durch das Aufdecken von Schwachstellen in Bug-Bounty-Programmen lukrative Belohnungen erzielen, wie im Fall des Anthropic-Modells Claude Code, das sich als besonders erfolgreich erwies. Doch es besteht auch die Gefahr, dass sich Technologien schneller zugunsten von Angreifern entwickeln könnten. Da KI-Modelle in verschiedenen Disziplinen Fortschritte machen, bleibt die Frage, wie die Sicherheitsbranche diese innovative Technologie zum Vorteil aller nutzen kann, ohne die Risiken zu erhöhen.