MENU Schließen
Schließen

Künstliche Intelligenz als Waffe im Cyberkrieg

Interview mit Mario Jandeck, Gründer und CEO von Enginsight

Wie kann Künstliche Intelligenz zur frühzeitigen Erkennung und Abwehr von Cyberangriffen eingesetzt werden?

Künstliche Intelligenz (KI) gewinnt in der Cyber-Security zunehmend an Bedeutung. Dennoch herrscht unter IT-Fachleuten vielfach die Einschätzung, dass KI derzeit eher den Angreifern als den Verteidigern zugutekommt. Besonders beunruhigend ist, dass Angreifer KI-gestützte Systeme – vor allem Large Language Models (LLMs) – gezielt einsetzen, um raffinierte und personalisierte Phishing-Angriffe zu automatisieren. Auch die Erstellung realistischer Deepfakes, die immer schwerer von echten Inhalten zu unterscheiden sind, wird durch KI erheblich erleichtert. Aktuell ist es leider so: KI hilft insbesondere den „Bösen“. Als Verteidiger hinken wir bei der Nutzung dieser Technologien noch hinterher – und ich fürchte, das wird sich so schnell nicht ändern. Dennoch: Schon jetzt hilft KI auch den Guten. Sie spielt bereits eine wertvolle Rolle in der frühzeitigen Erkennung von Bedrohungen. So hilft sie uns beispielsweise bei der Analyse von Netzwerkdaten und der Überwachung von Verhaltensmustern.

Wenn wir heute über KI sprechen und Erkennung – welche Werkzeuge stehen heute zur Verfügung?

Wenn wir heute über Künstliche Intelligenz (KI) und deren Erkennungsmöglichkeiten sprechen, stehen uns eine Vielzahl von leistungsfähigen Werkzeugen zur Verfügung, die es uns ermöglichen, Nutzer- und Systemaktivitäten umfassend zu analysieren. Eine der effektivsten Methoden, die in diesem Kontext eingesetzt wird, ist die verhaltensbasierte Analyse. Durch diese Technik können wir detaillierte Profile der Aktivitäten erstellen, die sowohl von Nutzern als auch von Systemen ausgeführt werden. Solche Profile helfen uns dabei, ein klares Bild der typischen Verhaltensmuster zu gewinnen. Sobald es Abweichungen von diesen etablierten Mustern gibt, kann die KI sofort reagieren, indem sie Alarme auslöst oder gezielte Maßnahmen initiiert.

Besonders hervorzuheben sind in diesem Zusammenhang die Large Language Models (LLMs). Diese KI-Modelle wurden auf enormen Mengen an Textdaten trainiert und sind daher in der Lage, nicht nur Daten umfassend zu analysieren, sondern auch in natürlicher Sprache zu kommunizieren. Sie sind äußerst kompetent darin, kontextbezogene Informationen zusammenzufassen und bei der Analyse von sicherheitsrelevanten Vorfällen wertvolle Unterstützung zu bieten.
Ein praktisches Beispiel verdeutlicht dies: Stellen Sie sich vor, ein Analyst in einem Security Operations Center (SOC) erhält eine Vielzahl von Alarmsignalen, die dringend analysiert werden müssen. In einer solchen Situation können LLMs eine entscheidende Rolle spielen. Sie helfen dabei, relevante Informationen aus unterschiedlichen Quellen zu extrahieren und bereiten diese so auf, dass der Analyst schnell fundierte Entscheidungen treffen kann. Dank dieser Unterstützung erhält der Analyst eine strukturiere Zusammenfassung der wichtigsten Daten, die für seine reaktionsschnellen Maßnahmen unerlässlich sind.

Die Implementierung solcher Technologien kann nicht nur die Reaktionszeiten erheblich verkürzen, sondern auch die Genauigkeit der Reaktionen signifikant erhöhen. Dies führt letztlich zu einer verbesserten Sicherheit und Effizienz in den Abläufen eines Unternehmens.

Was sind die Herausforderungen im Umgang mit KI in der Cyber-Security?

Eine der größten Herausforderungen im Umgang mit KI in der Cyber-Security ist die Notwendigkeit, ein tiefes Verständnis über die Daten und deren Zusammenhänge zu entwickeln. Derzeit gibt es eigentlich keine Modelle, die in der Lage sind, die relationalen Zusammenhänge zwischen verschiedenen Datensätzen und einzelnen Datenfeldern unterschiedlicher Systemquellen eigenständig zu erfassen. Diese Zusammenhänge sind jedoch entscheidend, um intelligentere und genauere Entscheidungen zu treffen. Wir und auch andere forschen dazu; doch bisher konnten noch kein Modell so trainieren, dass es sinnvoll die Zusammenhänge zwischen verschiedenen Datensätzen und einzelnen Datenfeldern eigenständig erkennt.

Kann eine KI passende generative Fragen erstellen, um Sicherheitslücken aufzudecken (basierend auf einer definierten Schutzsituation)?

Die große Herausforderung ist, einem Modell beizubringen, wie 9.000 bis 10.000 Felder – etwa Geo-IP, Servernamen oder Nutzerdaten – miteinander zusammenhängen. Also was passiert, wenn du im Feld A und B bestimmte Informationen hast, wie wirkt sich das im Zusammenhang mit Informationen aus anderen Feldern aus? Welchen Impact hat das zusammen mit den Informationen? Welches System ist betroffen, wie risikoreich ist das System? Ist das ein wichtiges System?
Dafür gibt es derzeit keine ausgereifte Lösung, ist jedoch ein aktives Forschungsthema. Der praktische Einsatzweck dafür wäre beispielsweise: ein KI-Agent, der den SOC-Betrieb künftig vollständig übernimmt. In fünf Jahren könnte das realistisch sein – nicht nur bei uns, sondern auch bei anderen, die daran arbeiten.

Zurück zu den Herausforderungen: Es gibt doch sicher weitere?

Absolut. Unternehmen müssen sicherstellen, dass sie die nötige Datenqualität und -quantität haben, um ihre Machine-Learning- oder Large-Language-Modelle effektiv zu trainieren. Der Mangel an qualitativ hochwertigen Daten kann zu Fehlentscheidungen führen. Hinzukommt: Das Speichern und Verarbeiten großer Datenmengen kosten immense Ressourcen.

Was ich außerdem als ernstzunehmendes Risiko sehe: Nicht selten halluziniert eine KI – sie gibt Antworten, obwohl sie eigentlich keine verlässliche Grundlage dafür hat. Halluzinationen, also Situationen, in denen ein Sprachmodell eine scheinbar plausible, aber faktisch falsche Antwort generiert, sind aktuell bei allen großen Anbietern von Language Models ein offenes Problem. Wenn wir solche Modelle nun auf Sicherheitsevents oder Incident-Erkennung anwenden, kann das schnell zu unerwünschten Konsequenzen führen: Stellen Sie sich vor, ein Modell interpretiert ein bestimmtes Verhalten fälschlicherweise als Angriff und stößt dadurch automatisch eine Reaktion an – etwa das Blockieren eines Systems oder das Abschalten eines Zugriffs und damit das Stören von Betriebsabläufen. Das wäre dann ein False Positive, ausgelöst nicht durch einen technischen Fehler, sondern durch eine zu „phantasievolle“ Interpretation der KI. Das Risiko ist real.

Deshalb muss von Anfang an klar sein: KI-Systeme dürfen nicht im Blindflug Entscheidungen treffen. Es braucht immer eine Art Sicherungsmechanismus – sei es durch menschliche Kontrolle, klare Regeln oder kombinierte Systeme, die Aussagen von KI gegen weitere Quellen validieren.

Das Ziel, die vollständige Automatisierung anzustreben, darf also nie auf Kosten der Zuverlässigkeit und Genauigkeit geschehen. Im Moment heißt das für mich auch klar: KI und Mensch arbeiten weiterhin gemeinsam an der Sicherheit von Unternehmen und Daten und beide überwachen sich gewissenmaßen gegenseitig, denn beide machen Fehler.

Wie können Angreifer KI-Systeme manipulieren?

Angreifer könnten versuchen, KI-Modelle zu manipulieren, indem sie schädliche Daten als Trainingsinput einspeisen. Damit würden sie die Wahrnehmung der KI bezüglich legitimer und bösartiger Daten beeinflussen, sodass Malware nicht erkannt wird oder als sichere Software eingestuft wird. Angreifer könnten auch auf die gleichen KI-Systeme zugreifen, um Informationen über ihre Sicherheit zu stehlen oder sie gezielt auszuschalten.

Wie können Unternehmen sicherstellen, dass KI-basierte Systeme vertrauenswürdig bleiben?

Hier kommen die Diskussionen um Open Source versus Closed Source ins Spiel. Open-Source-Software hat den Vorteil, dass viele Entwickler an ihrer Verbesserung und Sicherheit arbeiten, was einen gewissen Grad an Transparenz und Gemeinschaftsüberprüfung bietet. Unternehmen können sich sicherer fühlen, wenn sie sehen, dass mehrere Augen auf den Code gerichtet sind.

Gleichzeitig gibt es jedoch auch Risiken in Form von schlecht gewarteten Open-Source-Projekten – Schadcode könnte ohne ausreichende Überprüfung hineingeschleust werden. Closed-Source-Systeme bieten hingegen den Vorteil, dass das Unternehmen für die Qualität und Sicherheit seiner Software verantwortlich ist. Der Nachteil ist, dass alles auf dem Vertrauen in den Anbieter beruht. Die Wahl zwischen Open Source und Closed Source ist daher oft eine Glaubensfrage, die viele Faktoren berücksichtigt.

Gerade im Bereich Cybersecurity ist Vertrauen in die Datenverarbeitung zentral. Wie kann ein Unternehmen abwägen, ob es sich für eine lokal betriebene KI-Lösung oder für ein Modell in einer privaten Cloud entscheiden sollte – insbesondere mit Blick auf Sicherheit, Kosten und digitale Souveränität?

Die Frage nach digitaler Souveränität, also: Wer hat die Kontrolle über meine Daten und die zugrunde liegende Logik der KI? stellen sich viele Unternehmen; gerade jetzt. Die Antwort hängt stark vom jeweiligen Kontext ab. Wenn wir über hochsensible Daten sprechen, etwa im öffentlichen Sektor oder in sicherheitskritischen Industrien, dann ist eine lokal betriebene die bevorzugte Option. Dabei verlassen weder Daten noch Modelle die eigene Infrastruktur.

Für große Unternehmen sind On-premises-Varianten von GPTs natürlich ein Thema – sie haben die Ressourcen, um diese selbst zu betreiben und tun das ganz bewusst. Für den Mittelstand sieht das oft anders aus. Die wirtschaftliche Realität erlaubt es vielen Unternehmen schlicht nicht, die nötige Rechenleistung selbst vorzuhalten. Hier kommen dann private Clouds ins Spiel, also Lösungen, bei denen beispielsweise ein regionaler Anbieter eine abgeschirmte Infrastruktur bereitstellt, die mehrere definierte Kunden nutzen. Das schafft Vertrauen, weil man genau weiß, wo die Daten liegen und wer darauf Zugriff hat – ohne gleich auf große Public-Cloud-Anbieter ausweichen zu müssen.

Letztlich ist es also ein Spannungsfeld zwischen Sicherheit, Vertrauen, Wirtschaftlichkeit und technischer Machbarkeit – und die richtige Lösung hängt stark davon ab, wie kritisch die Daten sind, welche regulatorischen Anforderungen gelten und welche Ressourcen intern verfügbar sind.

Wie verändert sich die Arbeit bzw. das Anforderungsprofil von IT-Sicherheitsteams durch KI?

Der Technik-Stack in Unternehmen wird immer größer und komplexer. KI treibt diesen Trend immens voran. Das bietet Angreifern ein extrem hohes Potenzial, um IT-Systeme zu kompromittieren. Um sicherzustellen, dass alle Mitarbeiter mit den neuen Tools und Technologien vertraut sind, werden Weiterbildung und spezielle Schulungsprogramme entscheidend sein. IT-Anforderungsprofile werden sich weiter verändern, wie aktuell schon die der Analysten: Sie müssen nicht mehr nur in der Lage sein, Alarme zu analysieren, sondern auch zu verstehen, wie die eingesetzten KIs funktionieren, um diese effektiv steuern und überwachen zu können.

Wie sehen Sie die weitere Entwicklung von KI in der Cyber-Security?

Die künftige Entwicklung der KI in der Cyber-Security wird voraussichtlich sehr dynamisch bleiben. Wir werden eine zunehmende Anzahl von KI-Agenten sehen, die nicht nur bei der Erkennung von Bedrohungen, sondern auch bei der Reaktion auf diese Bedrohungen unterstützen. Diese Agenten könnten weitreichende Aufgaben übernehmen, von der Analyse von Vorfallberichten bis zur Überwachung des Netzwerkverkehrs bis zur vollständigen Übernahme kompletter Jobs – wie oben bereits erwähnt, die des SOC-Betriebs.

Besonders für mittelständische Unternehmen wird es wichtig sein, vertrauenswürdige Partner für Managed Detection and Response Services (MDR) zu finden, die über die erforderliche Expertise und Technologie verfügen, um ihre Cyber-Security-Bedürfnisse zu decken. Während einige größere Unternehmen interne Kapazitäten aufbauen können, werden sich die meisten Unternehmen wahrscheinlich auf externe Dienstleister verlassen müssen. Es wird notwendig sein, eine Balance zwischen interner Kontrolle und externer Unterstützung zu finden, um im schnelllebigen Cyber-Sicherheitsumfeld erfolgreich zu bleiben.

Weitere Beiträge im Enginsight Blog
Die wahren Kosten eines Cyberangriff vs. Präventsionskosten - ein Fallbeispiel

Cybersecurity als Investition

Warum modernste Maßnahmen weniger kosten als die Folgen eines erfolgreichen Cyberangriffs Die Bedrohungslage steigt. Immer häufiger und immer ausgefeilter werden die Angriffe. So gut wie

White Hat

Mini-Pentest oder manueller Pentest?

Ist ein DIY-Pentest eine wirksame Cybersecurity-Maßnahme? Die zunehmende Komplexität in der Cybersicherheit fordert auch den Einsatz von neuen Technologien. Einfacher, besser… und sicherer? Es kommen