Moderne Cyber-Security braucht KI-AgentenMulti-Agenten-Systeme steigern Cyber-Sicherheit
3. September 2025
Multi-Agenten-Systeme (MAS) haben das Potenzial, die Cyber-Sicherheit in Unternehmen maßgeblich zu steigern. Allerdings müssen die KI-Agenten nicht nur intelligent, sondern auch interoperabel, vertrauenswürdig und resilient sein.
Künstliche Intelligenz ist im Cyber-Security-Bereich bereits seit Jahren im Einsatz. Mit Agentic AI ergeben sich nun neue Möglichkeiten für den Aufbau und Betrieb eines modernen Security Operations Center (SOC) – und das keine Sekunde zu früh: Die Geschwindigkeit, mit der Cyber-Attacken stattfinden, die Komplexität der Angriffe und deren Umfang nehmen ständig zu.
Security-Operations-Teams setzen daher zunehmend auf Multi-Agenten-Systeme, um ihre Fähigkeiten zu erweitern. Bei der Einführung multipler KI-Agenten, die autonom auf ein Ziel hinarbeiten, gibt es Herausforderungen, doch die können Unternehmen elegant bewältigen:
- Herausforderung 1, Orchestrierung: Damit MAS im Kontext eines Security Operations Center effektiv funktionieren können, müssen SecOps-Teams die KI-Agenten nahtlos über sämtliche Systeme hinweg koordinieren – eine komplexe Aufgabe. Dazu bedarf es robuster Kommunikationsprotokolle, die Datenstaus und Ressourcenprobleme verhindern. Überdies benötigen KI-Agenten eine einheitliche Terminologie für die Verarbeitung von Informationen aus unterschiedlichsten Quellen wie SIEM (Security Incident and Event Management)-Plattformen oder EDR (Endpoint Detection and Response)-Systemen.
- Herausforderung 2, Skalierbarkeit: Multi-Agenten-Systeme bieten eine hohe Skalierbarkeit, was jedoch im Umkehrschluss zu immer mehr unerwünschten Wechselwirkungen führen kann – ein Paradoxon. Entwickler von MAS müssen daher einige Vorkehrungen treffen, um Probleme zu vermeiden. Dazu gehören etwa dynamische Lastverteilung (Load Balancing), ein sinnvolles Zustandsmanagement und die Nutzung von Orchestrierungs-Frameworks. Nur mit einem ausgeklügelten Systemdesign kann ein MAS auch bei wachsender Größe stabil bleiben.
- Herausforderung 3, Autonomie ohne Kontrollverlust: Das Alleinstellungsmerkmal von Multi-Agenten-Systemen ist deren Autonomie. Die kann jedoch gerade im Cyber-Security-Bereich auch Gefahren mit sich bringen. SecOps-Teams müssen daher die richtige Balance zwischen der Eigenständigkeit der verwendeten KI-Agenten und notwendiger Kontrollen finden, um Fehlerketten zu vermeiden. Wichtig ist insbesondere, belastbare Entscheidungs-Frameworks, Logikvalidierungen und eine Sicherheitsmaßnahme nach dem „Human-in-the-Loop“-Ansatz in das MAS zu implementieren. Das System sollte zudem feste Regeln vorgeben, wann ein KI-Agent autonom agieren darf und wann nicht.
- Herausforderung 4, Halluzinationen: Halluzinationen sind eine der größten Herausforderungen generativer KI-Anwendungen – so auch bei MAS. Für den Cyber-Security-Bereich bedeutet es, dass KI-Agenten möglicherweise harmlose Vorgänge als Bedrohungen einstufen können (False Positives) oder echte Angriffe als unbedenklich erachten (False Negatives). Ursachen können unvollständige Trainingsdaten, schlecht abgestimmte Modelle oder fehlerhafte Logikketten zwischen einzelnen Agenten sein. Um solche Halluzinationen zu verhindern, braucht es robuste Grounding-Techniken, sorgfältige Systemvalidierung und enge Feedback-Schleifen. KI-Agenten sollten gegenseitig ihre jeweiligen Schlussfolgerungen prüfen und im Zweifel die menschlichen SecOps-Spezialisten benachrichtigen.
- Herausforderung 5, Systemsicherheit: Da KI-Agenten eine potenzielle Erweiterung der Angriffsfläche für Hacker darstellen, müssen sie nicht nur das System schützen, sondern auch abgesichert werden. Maßnahmen dafür umfassen unter anderem die Verschlüsselung der Kommunikation zwischen den Agenten, strikte Zugriffskontrollen sowie das Audit-Logging auf Agentenebene. Darüber hinaus müssen SecOps-Teams ihr Multi-Agenten-System nach dem Privacy-by-Design-Ansatz entwickeln.
- Herausforderung 6, Interoperabilität: Technologie-Stacks im Cyber-Security-Bereich sind oft fragmentiert. KI-Agenten müssen daher mit einer Vielzahl von Plattformen interoperabel und in der Lage sein, Daten in Echtzeit zu übersetzen und zu normalisieren. Zudem sind modulare, erweiterbare Frameworks notwendig, die das Hinzufügen neuer KI-Agenten oder Konnektoren ermöglichen, ohne das Gesamtsystem zu stören.
Neben technischen Herausforderungen bei der Einführung von Multi-Agenten-Systemen bleibt der Mensch die größte Hürde. Menschliche Cyber-Security-Analysten sollten den KI-Agenten vertrauen können. Dazu bedarf es Transparenz und Nachvollziehbarkeit. Aus diesem Grund müssen entsprechende Systeme nicht nur Antworten liefern, sondern auch die zugrunde liegende Beweisführung offenlegen. Diese Transparenz in Verbindung mit der Möglichkeit der Analysten, jederzeit einzugreifen, schafft Vertrauen und macht KI-Agenten zu wertvollen Verbündeten im Kampf gegen Cyber-Kriminelle.
Theus Hossmann ist Chief Technology Officer bei Ontinue.