Insider-Bedrohungserkennung mit Google CloudVerhalten von KI-Agenten sichtbar machen

12. September 2025

Die New-Scale Security Operations Platform integriert Daten von Google Agentspace und Model Armor, um das Verhalten von KI-Agenten sichtbar zu machen. Damit erhalten Sicherheitsteams umfassende Einblicke in das Verhalten von KI-Agenten, die als „digitale Insider“ agieren können. Das eröffnet die Möglichkeiten, Absichten zu erkennen, Abweichungen festzustellen und Kompromittierungen schnell zu identifizieren.

Die internationale Studie „From Human to Hybrid: How AI and the Analytics Gap Are Fueling Insider Risk“ zeigt, dass 93 Prozent der Unternehmen weltweit bereits einen Anstieg von KI-getriebenen Insider-Bedrohungen erlebt haben oder diesen erwarten. 64 Prozent stufen Insider inzwischen als größere Gefahr ein als externe Angreifer.

Da KI-Agenten Aufgaben für Nutzer übernehmen, auf sensible Daten zugreifen und eigenständig Entscheidungen treffen, entsteht eine neue Kategorie interner Risiken: digitale Akteure, die sich herkömmlicher Überwachung entziehen. Wie menschliche Insider (böswillig, fahrlässig oder kompromittiert) bergen auch KI-Agenten eigene Risiken: fehlfunktionierend, fehlgesteuert oder manipuliert.

Klassische SIEM- und XDR-Lösungen stoßen hier an ihre Grenzen, da sie kein Normalverhalten modellieren und daher nicht erkennen können, wenn Agenten „außer Kontrolle“ geraten. Mit Hilfe von Techniken aus den Bereichen maschinelles Lernen und Verhaltensanalytik lässt sich diese Lücke schließen. Dazu gilt es, die bestehenden Fähigkeiten auf die Überwachung sowohl menschlicher, als auch KI-gesteuerter Aktivitäten auszuweiten.

Absichten und Ausführungsmuster analysieren

Im Zentrum dieses Ansatzes steht „Exabeam Nova“ als Intelligenzschicht, die es Analysten ermöglicht, das Verhalten von KI-Agenten in Echtzeit zu interpretieren und zu bewerten. Nova liefert verständlich aufbereitete und priorisierte Informationen zu Bedrohungen, indem es Absichten und Ausführungsmuster von KI-Agenten analysiert. So können Analysten über oberflächliche Warnmeldungen hinausgehen und den Kontext hinter den Aktionen verstehen, sei es legitime Automatisierung oder potenzieller Missbrauch.

Durch die Vereinheitlichung der Sichtbarkeit auf menschliche und KI-gesteuerte Aktivitäten ermöglicht dieser Ansatz es den Sicherheitsteams, Insider-Bedrohungen in allen Formen zu erkennen, zu bewerten und darauf zu reagieren. Dies gibt Organisationen die Möglichkeit, KI mit Vertrauen einzusetzen, ohne die Kontrolle, Integrität und Widerstandsfähigkeit ihrer Abläufe zu gefährden. (rhh)

Exabeam

Lesen Sie auch