{"id":35509,"date":"2025-07-23T11:14:36","date_gmt":"2025-07-23T09:14:36","guid":{"rendered":"https:\/\/enginsight.com\/?p=35509"},"modified":"2025-07-23T11:14:38","modified_gmt":"2025-07-23T09:14:38","slug":"kuenstliche-intelligenz-als-waffe-im-cyberkrieg","status":"publish","type":"post","link":"https:\/\/enginsight.com\/de\/blog\/kuenstliche-intelligenz-als-waffe-im-cyberkrieg\/","title":{"rendered":"K\u00fcnstliche Intelligenz als Waffe im Cyberkrieg"},"content":{"rendered":"<h2 class=\"wp-block-heading\">Interview mit Mario Jandeck, Gr&#xFC;nder und CEO von Enginsight<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Wie kann K&#xFC;nstliche Intelligenz zur fr&#xFC;hzeitigen Erkennung und Abwehr von Cyberangriffen eingesetzt werden?<\/h3>\n\n\n\n<p>K&#xFC;nstliche Intelligenz (KI) gewinnt in der Cyber-Security zunehmend an Bedeutung. Dennoch herrscht unter IT-Fachleuten vielfach die Einsch&#xE4;tzung, dass KI derzeit eher den Angreifern als den Verteidigern zugutekommt. Besonders beunruhigend ist, dass Angreifer KI-gest&#xFC;tzte Systeme &#x2013; vor allem Large Language Models (LLMs) &#x2013; gezielt einsetzen, um raffinierte und personalisierte Phishing-Angriffe zu automatisieren. Auch die Erstellung realistischer Deepfakes, die immer schwerer von echten Inhalten zu unterscheiden sind, wird durch KI erheblich erleichtert. Aktuell ist es leider so: KI hilft insbesondere den &#x201E;B&#xF6;sen&#x201C;. Als Verteidiger hinken wir bei der Nutzung dieser Technologien noch hinterher &#x2013; und ich f&#xFC;rchte, das wird sich so schnell nicht &#xE4;ndern. Dennoch: Schon jetzt hilft KI auch den Guten. Sie spielt bereits eine wertvolle Rolle in der fr&#xFC;hzeitigen Erkennung von Bedrohungen. So hilft sie uns beispielsweise bei der Analyse von Netzwerkdaten und der &#xDC;berwachung von Verhaltensmustern.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Wenn wir heute &#xFC;ber KI sprechen und Erkennung &#x2013; welche Werkzeuge stehen heute zur Verf&#xFC;gung?<\/h3>\n\n\n\n<p>Wenn wir heute &#xFC;ber K&#xFC;nstliche Intelligenz (KI) und deren Erkennungsm&#xF6;glichkeiten sprechen, stehen uns eine Vielzahl von leistungsf&#xE4;higen Werkzeugen zur Verf&#xFC;gung, die es uns erm&#xF6;glichen, Nutzer- und Systemaktivit&#xE4;ten umfassend zu analysieren. Eine der effektivsten Methoden, die in diesem Kontext eingesetzt wird, ist die verhaltensbasierte Analyse. Durch diese Technik k&#xF6;nnen wir detaillierte Profile der Aktivit&#xE4;ten erstellen, die sowohl von Nutzern als auch von Systemen ausgef&#xFC;hrt werden. Solche Profile helfen uns dabei, ein klares Bild der typischen Verhaltensmuster zu gewinnen. Sobald es Abweichungen von diesen etablierten Mustern gibt, kann die KI sofort reagieren, indem sie Alarme ausl&#xF6;st oder gezielte Ma&#xDF;nahmen initiiert.<\/p>\n\n\n\n<p>Besonders hervorzuheben sind in diesem Zusammenhang die Large Language Models (LLMs). Diese KI-Modelle wurden auf enormen Mengen an Textdaten trainiert und sind daher in der Lage, nicht nur Daten umfassend zu analysieren, sondern auch in nat&#xFC;rlicher Sprache zu kommunizieren. Sie sind &#xE4;u&#xDF;erst kompetent darin, kontextbezogene Informationen zusammenzufassen und bei der Analyse von sicherheitsrelevanten Vorf&#xE4;llen wertvolle Unterst&#xFC;tzung zu bieten.<br>Ein praktisches Beispiel verdeutlicht dies: Stellen Sie sich vor, ein Analyst in einem Security Operations Center (SOC) erh&#xE4;lt eine Vielzahl von Alarmsignalen, die dringend analysiert werden m&#xFC;ssen. In einer solchen Situation k&#xF6;nnen LLMs eine entscheidende Rolle spielen. Sie helfen dabei, relevante Informationen aus unterschiedlichen Quellen zu extrahieren und bereiten diese so auf, dass der Analyst schnell fundierte Entscheidungen treffen kann. Dank dieser Unterst&#xFC;tzung erh&#xE4;lt der Analyst eine strukturiere Zusammenfassung der wichtigsten Daten, die f&#xFC;r seine reaktionsschnellen Ma&#xDF;nahmen unerl&#xE4;sslich sind.<\/p>\n\n\n\n<p>Die Implementierung solcher Technologien kann nicht nur die Reaktionszeiten erheblich verk&#xFC;rzen, sondern auch die Genauigkeit der Reaktionen signifikant erh&#xF6;hen. Dies f&#xFC;hrt letztlich zu einer verbesserten Sicherheit und Effizienz in den Abl&#xE4;ufen eines Unternehmens.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Was sind die Herausforderungen im Umgang mit KI in der Cyber-Security?<\/h3>\n\n\n\n<p>Eine der gr&#xF6;&#xDF;ten Herausforderungen im Umgang mit KI in der Cyber-Security ist die Notwendigkeit, ein tiefes Verst&#xE4;ndnis &#xFC;ber die Daten und deren Zusammenh&#xE4;nge zu entwickeln. Derzeit gibt es eigentlich keine Modelle, die in der Lage sind, die relationalen Zusammenh&#xE4;nge zwischen verschiedenen Datens&#xE4;tzen und einzelnen Datenfeldern unterschiedlicher Systemquellen eigenst&#xE4;ndig zu erfassen. Diese Zusammenh&#xE4;nge sind jedoch entscheidend, um intelligentere und genauere Entscheidungen zu treffen. Wir und auch andere forschen dazu; doch bisher konnten noch kein Modell so trainieren, dass es sinnvoll die Zusammenh&#xE4;nge zwischen verschiedenen Datens&#xE4;tzen und einzelnen Datenfeldern eigenst&#xE4;ndig erkennt.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Kann eine KI passende generative Fragen erstellen, um Sicherheitsl&#xFC;cken aufzudecken (basierend auf einer definierten Schutzsituation)?<\/h3>\n\n\n\n<p>Die gro&#xDF;e Herausforderung ist, einem Modell beizubringen, wie 9.000 bis 10.000 Felder &#x2013; etwa Geo-IP, Servernamen oder Nutzerdaten &#x2013; miteinander zusammenh&#xE4;ngen. Also was passiert, wenn du im Feld A und B bestimmte Informationen hast, wie wirkt sich das im Zusammenhang mit Informationen aus anderen Feldern aus? Welchen Impact hat das zusammen mit den Informationen? Welches System ist betroffen, wie risikoreich ist das System? Ist das ein wichtiges System?<br>Daf&#xFC;r gibt es derzeit keine ausgereifte L&#xF6;sung, ist jedoch ein aktives Forschungsthema. Der praktische Einsatzweck daf&#xFC;r w&#xE4;re beispielsweise: ein KI-Agent, der den SOC-Betrieb k&#xFC;nftig vollst&#xE4;ndig &#xFC;bernimmt. In f&#xFC;nf Jahren k&#xF6;nnte das realistisch sein &#x2013; nicht nur bei uns, sondern auch bei anderen, die daran arbeiten.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Zur&#xFC;ck zu den Herausforderungen: Es gibt doch sicher weitere?<\/h3>\n\n\n\n<p>Absolut. Unternehmen m&#xFC;ssen sicherstellen, dass sie die n&#xF6;tige Datenqualit&#xE4;t und -quantit&#xE4;t haben, um ihre Machine-Learning- oder Large-Language-Modelle effektiv zu trainieren. Der Mangel an qualitativ hochwertigen Daten kann zu Fehlentscheidungen f&#xFC;hren. Hinzukommt: Das Speichern und Verarbeiten gro&#xDF;er Datenmengen kosten immense Ressourcen.<\/p>\n\n\n\n<p>Was ich au&#xDF;erdem als ernstzunehmendes Risiko sehe: Nicht selten halluziniert eine KI &#x2013; sie gibt Antworten, obwohl sie eigentlich keine verl&#xE4;ssliche Grundlage daf&#xFC;r hat. Halluzinationen, also Situationen, in denen ein Sprachmodell eine scheinbar plausible, aber faktisch falsche Antwort generiert, sind aktuell bei allen gro&#xDF;en Anbietern von Language Models ein offenes Problem. Wenn wir solche Modelle nun auf Sicherheitsevents oder Incident-Erkennung anwenden, kann das schnell zu unerw&#xFC;nschten Konsequenzen f&#xFC;hren: Stellen Sie sich vor, ein Modell interpretiert ein bestimmtes Verhalten f&#xE4;lschlicherweise als Angriff und st&#xF6;&#xDF;t dadurch automatisch eine Reaktion an &#x2013; etwa das Blockieren eines Systems oder das Abschalten eines Zugriffs und damit das St&#xF6;ren von Betriebsabl&#xE4;ufen. Das w&#xE4;re dann ein False Positive, ausgel&#xF6;st nicht durch einen technischen Fehler, sondern durch eine zu &#x201E;phantasievolle&#x201C; Interpretation der KI. Das Risiko ist real.<\/p>\n\n\n\n<p>Deshalb muss von Anfang an klar sein: KI-Systeme d&#xFC;rfen nicht im Blindflug Entscheidungen treffen. Es braucht immer eine Art Sicherungsmechanismus &#x2013; sei es durch menschliche Kontrolle, klare Regeln oder kombinierte Systeme, die Aussagen von KI gegen weitere Quellen validieren.<\/p>\n\n\n\n<p>Das Ziel, die vollst&#xE4;ndige Automatisierung anzustreben, darf also nie auf Kosten der Zuverl&#xE4;ssigkeit und Genauigkeit geschehen. Im Moment hei&#xDF;t das f&#xFC;r mich auch klar: KI und Mensch arbeiten weiterhin gemeinsam an der Sicherheit von Unternehmen und Daten und beide &#xFC;berwachen sich gewissenma&#xDF;en gegenseitig, denn beide machen Fehler.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Wie k&#xF6;nnen Angreifer KI-Systeme manipulieren?<\/h3>\n\n\n\n<p>Angreifer k&#xF6;nnten versuchen, KI-Modelle zu manipulieren, indem sie sch&#xE4;dliche Daten als Trainingsinput einspeisen. Damit w&#xFC;rden sie die Wahrnehmung der KI bez&#xFC;glich legitimer und b&#xF6;sartiger Daten beeinflussen, sodass Malware nicht erkannt wird oder als sichere Software eingestuft wird. Angreifer k&#xF6;nnten auch auf die gleichen KI-Systeme zugreifen, um Informationen &#xFC;ber ihre Sicherheit zu stehlen oder sie gezielt auszuschalten.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Wie k&#xF6;nnen Unternehmen sicherstellen, dass KI-basierte Systeme vertrauensw&#xFC;rdig bleiben?<\/h3>\n\n\n\n<p>Hier kommen die Diskussionen um Open Source versus Closed Source ins Spiel. Open-Source-Software hat den Vorteil, dass viele Entwickler an ihrer Verbesserung und Sicherheit arbeiten, was einen gewissen Grad an Transparenz und Gemeinschafts&#xFC;berpr&#xFC;fung bietet. Unternehmen k&#xF6;nnen sich sicherer f&#xFC;hlen, wenn sie sehen, dass mehrere Augen auf den Code gerichtet sind.<\/p>\n\n\n\n<p>Gleichzeitig gibt es jedoch auch Risiken in Form von schlecht gewarteten Open-Source-Projekten &#x2013; Schadcode k&#xF6;nnte ohne ausreichende &#xDC;berpr&#xFC;fung hineingeschleust werden. Closed-Source-Systeme bieten hingegen den Vorteil, dass das Unternehmen f&#xFC;r die Qualit&#xE4;t und Sicherheit seiner Software verantwortlich ist. Der Nachteil ist, dass alles auf dem Vertrauen in den Anbieter beruht. Die Wahl zwischen Open Source und Closed Source ist daher oft eine Glaubensfrage, die viele Faktoren ber&#xFC;cksichtigt.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Gerade im Bereich Cybersecurity ist Vertrauen in die Datenverarbeitung zentral. Wie kann ein Unternehmen abw&#xE4;gen, ob es sich f&#xFC;r eine lokal betriebene KI-L&#xF6;sung oder f&#xFC;r ein Modell in einer privaten Cloud entscheiden sollte &#x2013; insbesondere mit Blick auf Sicherheit, Kosten und digitale Souver&#xE4;nit&#xE4;t?<\/h3>\n\n\n\n<p>Die Frage nach digitaler Souver&#xE4;nit&#xE4;t, also: Wer hat die Kontrolle &#xFC;ber meine Daten und die zugrunde liegende Logik der KI? stellen sich viele Unternehmen; gerade jetzt. Die Antwort h&#xE4;ngt stark vom jeweiligen Kontext ab. Wenn wir &#xFC;ber hochsensible Daten sprechen, etwa im &#xF6;ffentlichen Sektor oder in sicherheitskritischen Industrien, dann ist eine lokal betriebene die bevorzugte Option. Dabei verlassen weder Daten noch Modelle die eigene Infrastruktur.<\/p>\n\n\n\n<p>F&#xFC;r gro&#xDF;e Unternehmen sind On-premises-Varianten von GPTs nat&#xFC;rlich ein Thema &#x2013; sie haben die Ressourcen, um diese selbst zu betreiben und tun das ganz bewusst. F&#xFC;r den Mittelstand sieht das oft anders aus. Die wirtschaftliche Realit&#xE4;t erlaubt es vielen Unternehmen schlicht nicht, die n&#xF6;tige Rechenleistung selbst vorzuhalten. Hier kommen dann private Clouds ins Spiel, also L&#xF6;sungen, bei denen beispielsweise ein regionaler Anbieter eine abgeschirmte Infrastruktur bereitstellt, die mehrere definierte Kunden nutzen. Das schafft Vertrauen, weil man genau wei&#xDF;, wo die Daten liegen und wer darauf Zugriff hat &#x2013; ohne gleich auf gro&#xDF;e Public-Cloud-Anbieter ausweichen zu m&#xFC;ssen.<\/p>\n\n\n\n<p>Letztlich ist es also ein Spannungsfeld zwischen Sicherheit, Vertrauen, Wirtschaftlichkeit und technischer Machbarkeit &#x2013; und die richtige L&#xF6;sung h&#xE4;ngt stark davon ab, wie kritisch die Daten sind, welche regulatorischen Anforderungen gelten und welche Ressourcen intern verf&#xFC;gbar sind.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Wie ver&#xE4;ndert sich die Arbeit bzw. das Anforderungsprofil von IT-Sicherheitsteams durch KI?<\/h3>\n\n\n\n<p>Der Technik-Stack in Unternehmen wird immer gr&#xF6;&#xDF;er und komplexer. KI treibt diesen Trend immens voran. Das bietet Angreifern ein extrem hohes Potenzial, um IT-Systeme zu kompromittieren. Um sicherzustellen, dass alle Mitarbeiter mit den neuen Tools und Technologien vertraut sind, werden Weiterbildung und spezielle Schulungsprogramme entscheidend sein. IT-Anforderungsprofile werden sich weiter ver&#xE4;ndern, wie aktuell schon die der Analysten: Sie m&#xFC;ssen nicht mehr nur in der Lage sein, Alarme zu analysieren, sondern auch zu verstehen, wie die eingesetzten KIs funktionieren, um diese effektiv steuern und &#xFC;berwachen zu k&#xF6;nnen.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Wie sehen Sie die weitere Entwicklung von KI in der Cyber-Security?<\/h3>\n\n\n\n<p>Die k&#xFC;nftige Entwicklung der KI in der Cyber-Security wird voraussichtlich sehr dynamisch bleiben. Wir werden eine zunehmende Anzahl von KI-Agenten sehen, die nicht nur bei der Erkennung von Bedrohungen, sondern auch bei der Reaktion auf diese Bedrohungen unterst&#xFC;tzen. Diese Agenten k&#xF6;nnten weitreichende Aufgaben &#xFC;bernehmen, von der Analyse von Vorfallberichten bis zur &#xDC;berwachung des Netzwerkverkehrs bis zur vollst&#xE4;ndigen &#xDC;bernahme kompletter Jobs &#x2013; wie oben bereits erw&#xE4;hnt, die des SOC-Betriebs.<\/p>\n\n\n\n<p>Besonders f&#xFC;r mittelst&#xE4;ndische Unternehmen wird es wichtig sein, vertrauensw&#xFC;rdige Partner f&#xFC;r Managed Detection and Response Services (MDR) zu finden, die &#xFC;ber die erforderliche Expertise und Technologie verf&#xFC;gen, um ihre Cyber-Security-Bed&#xFC;rfnisse zu decken. W&#xE4;hrend einige gr&#xF6;&#xDF;ere Unternehmen interne Kapazit&#xE4;ten aufbauen k&#xF6;nnen, werden sich die meisten Unternehmen wahrscheinlich auf externe Dienstleister verlassen m&#xFC;ssen. Es wird notwendig sein, eine Balance zwischen interner Kontrolle und externer Unterst&#xFC;tzung zu finden, um im schnelllebigen Cyber-Sicherheitsumfeld erfolgreich zu bleiben.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Interview mit Mario Jandeck, Gr&#xFC;nder und CEO von Enginsight Wie kann K&#xFC;nstliche Intelligenz zur fr&#xFC;hzeitigen Erkennung und Abwehr von Cyberangriffen eingesetzt werden? K&#xFC;nstliche Intelligenz (KI) gewinnt in der Cyber-Security zunehmend an Bedeutung. Dennoch herrscht unter IT-Fachleuten vielfach die Einsch&#xE4;tzung, dass KI derzeit eher den Angreifern als den Verteidigern zugutekommt. Besonders beunruhigend ist, dass Angreifer KI-gest&#xFC;tzte [&#x2026;]<\/p>\n","protected":false},"author":30,"featured_media":35510,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"content-type":"","_eb_attr":"","footnotes":""},"categories":[10],"tags":[336],"class_list":["post-35509","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-endpoint-netzwerksicherheit","tag-kuenstliche-intelligenz-in-der-cybersecurity"],"_links":{"self":[{"href":"https:\/\/enginsight.com\/de\/wp-json\/wp\/v2\/posts\/35509","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/enginsight.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/enginsight.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/enginsight.com\/de\/wp-json\/wp\/v2\/users\/30"}],"replies":[{"embeddable":true,"href":"https:\/\/enginsight.com\/de\/wp-json\/wp\/v2\/comments?post=35509"}],"version-history":[{"count":0,"href":"https:\/\/enginsight.com\/de\/wp-json\/wp\/v2\/posts\/35509\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/enginsight.com\/de\/wp-json\/wp\/v2\/media\/35510"}],"wp:attachment":[{"href":"https:\/\/enginsight.com\/de\/wp-json\/wp\/v2\/media?parent=35509"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/enginsight.com\/de\/wp-json\/wp\/v2\/categories?post=35509"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/enginsight.com\/de\/wp-json\/wp\/v2\/tags?post=35509"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}