Künstliche Intelligenz bietet Vorteile im Bereich der Cyber-SicherheitZusätzliches Sicherheitspotenzial nützen
8. April 2022Heutzutage bringt die Künstliche Intelligenz (KI) entscheidende und unverzichtbare Vorteile im Wettlauf um die Cyber-Sicherheit. Dennoch erkennen Sicherheitsmanager nicht immer, wie oder warum dies der Fall ist.
Obwohl KI derzeit zweifelsohne en vogue ist, scheint die Cyber-Sicherheits-Community nur wenig Wissen und Fähigkeiten zu diesem Thema erworben zu haben. Der durchschnittliche Entscheidungsträger versteht vielleicht einige der allgemeinen Grundsätze, zum Beispiel den überwachten gegenüber dem unüberwachten Modus. Er ist wahrscheinlich sogar in der Lage, Deep Learning von Shallow Learning zu unterscheiden. Wie man KI taktisch im Bereich der Cyber-Sicherheit anwendet, ist jedoch weitgehend unbekannt – oder wird nicht verstanden.
Vectra AI hat KI in den Mittelpunkt seiner Strategie gestellt. Das Unternehmen entwickelt KI-gestützte Lösungen, um zu erkennen, wie Angreifer vorgehen, um ihre Ziele zu erreichen: Werden sie Ransomware einsetzen oder Datenexfiltration? In diesem Zusammenhang wird die KI zu einem Mittel zur Erkennung von Anomalien, die durch menschliche Analysen nicht erkennbar sind.
KI sortiert die Anomalien und klassifiziert sie anhand von Entscheidungsbäumen oder Clustering-Algorithmen. Anschließend werden sie der Reihe nach zugeordnet, um künftige Angriffspfade aufzudecken und die Aufmerksamkeit auf die kritischsten Bedrohungen zu lenken. Vectra AI definiert die Lernmodelle, die für die Erreichung dieses Ziels am wichtigsten sind. Dieser Bereich wird weiter an Bedeutung gewinnen, da sich der Stand der Technik bei Cyber-Angriffen weiterentwickelt.
Vier Dinge, die man über KI wissen sollte
Es ist nicht unmöglich, das Potenzial der KI zu verstehen. Es gibt viele wertvolle Ressourcen, auf die man zurückgreifen kann, statt auf oberflächliche Marketingpräsentationen. Nützliche Informationen liefern populäre, fundierte Diskussionen über die Cybersicherheitsherausforderungen, die maschinelles Lernen lösen kann.
Es gibt Materialien zu den Grundsätzen des Einsatzes von KI in der Cyber-Sicherheit und Whitepaper, in denen adaptive maschinelle Lernmodelle erläutert werden. Natürlich ist ein Großteil der Inhalte zu diesem Thema anspruchsvoll, da sie tief in die komplexen mathematischen Formeln eindringen, die maschinelle Lernmodelle zum Erreichen bestimmter Ziele antreiben. Es gibt jedoch eine wachsende Zahl von leichter zugänglichen Materialien, mit denen sich auch Nichtfachleute befassen können.
Unternehmen, die in diesem Bereich wirklich führend sind, haben es nicht nötig, ihre Kunden mit dekorativen Gimmicks abzulenken. Wenn der Inhalt einer Präsentation dünn oder von begrenzter Überzeugungskraft ist, möchte man dies oft durch ein auffälligeres Format ausgleichen. Wer im KI-Segment auf eine außergewöhnliche Benutzeroberfläche mit atemberaubenden grafischen Effekten stößt, sollte sich Folgendes fragen: Ist das Ziel vielleicht, einen Mangel an echten Einsichten oder Werten zu verbergen? Kunden wollen Effizienz und Rentabilität, keine Schönheitswettbewerbe.
KI ist nicht automatisch empfindungsfähig, sie muss gut trainiert werden. Ein grundlegendes Prinzip jedes KI-Modells, insbesondere eines überwachten Modells, besteht darin, einen Mehrwert zu schaffen. Dies setzt ein Training mit einem Datensatz voraus, der frei von Verzerrungen und ausreichend repräsentativ für die realen Bedrohungen ist. Zu viele der heute verfügbaren Lösungen neigen dazu, diese Tatsache zu ignorieren.
Unüberwachte Modelle versuchen, „normales“ Verhalten in definierten Bereichen zu erkennen und dann Abweichungen auszumachen. Ohne Training hat dies jedoch klare Nachteile, angefangen mit der Schwierigkeit, eine solche Lösung in einer bereits kompromittierten Umgebung einzuführen. Bei der Berechnung des Risikos von datenabhängigen Aktuaren fiel früher oft ein Sprichwort: „Garbage in, garbage out.“ Das gleiche Axiom gilt heute für KI.
KI kann im Bereich der Cyber-Sicherheit erfahrene menschliche Analysten nicht ersetzen, sondern nur ergänzen. In jeder KI-gestützten Sicherheitsumgebung bleiben die investigativen Fähigkeiten und das Urteilsvermögen von Menschen unverzichtbar, aber sie beobachten notwendigerweise ein anderes Terrain und konzentrieren sich auf die Suche nach Kompromittierungsindikatoren (IOCs).
Im Idealfall können versierte Sicherheitsforscher Angriffsmuster analysieren und mit Datenwissenschaftlern zusammenarbeiten, um KI-basierte Sicherheitslösungen zu entwickeln. Die daraus resultierende Technologie wird immer besser darin sein, Bedrohungen zu erkennen und darauf zu reagieren. Der menschliche Beitrag bleibt jedoch unerlässlich.“
Andreas Riepen ist Regional Sales Director für die Region Central Europe bei Vectra AI.