Was künstliche Intelligenz für die Zukunft bringt

KI und IT-Sicherheit – Partner oder Feinde?

< zurück

Seite: 2/3

Anbieter zum Thema

Umfassende Tests mit realistischen Daten unabdingbar

Um im Security-Bereich sinnvoll arbeiten zu können, ist es wichtig, die KI umfassend zu testen und lernen zu lassen. Leider sind die Datenbeispiele zum Lernen und Testen oft nicht aktuell und realistisch. So wurde zum Beispiel ein IPS (Intrusion Protection System) mit bestimmten Verkehrsdaten getestet, die dafür zur Verfügung standen. Die Angriffserkennung im Test war anfangs großartig. Nach einiger Zeit stellte sich aber heraus, dass die Erkennung nur deshalb so gut war, weil die Angriffe im Testszenario nur an Tagen mit ungeraden Zahlen simuliert wurden. Die KI orientierte sich daraufhin ausschließlich am Timestamp und meinte, es reiche aus, auf das Datum zu sehen und den Traffic an ungeraden Tagen zu blocken. Als das Datum dann aus der Analyse ausgeschlossen wurde, ging die Erkennungsrate in den Keller.

Es gibt derzeit kaum realistische Daten, sondern nur veraltete Testdaten mit wenig Bezug zur Realität. Niemand stellt Daten aus dem eigenen Netz zur Verfügung, auch nicht Rohdaten. Dieses Problem gilt für viele Bereiche. In diesem Zusammenhang ist zu berücksichtigen, dass viele Daten gar nicht verwendet werden können, da die personenbezogenen Inhalte schützenswert sind.

Ansprüche an die Automatisierung unverändert

PD Dr.-Ing. Christian Riess vom IT Security Infrastructures Lab / CS 1 der Universität Erlangen-Nürnberg.(Bild:  Christian Riess)
PD Dr.-Ing. Christian Riess vom IT Security Infrastructures Lab / CS 1 der Universität Erlangen-Nürnberg.
(Bild: Christian Riess)

In unserem Gespräch mit PD Dr.-Ing. Christian Riess vom IT Security Infrastructures Lab / CS 1 der Universität Erlangen-Nürnberg wies uns Dr. Riess darauf hin, dass die Bewegungen und die Fortschritte im generativen Bereich derzeit drastisch sind. Die verfügbaren Demos wie ChatGPT und Midjourney beeindrucken sehr. Allerdings sollte man berücksichtigen, dass sich die Herausforderungen in Bezug auf die Automatisierung nicht wirklich geändert haben.

Was die Angriffsmöglichkeiten durch die KI angeht, so sieht Dr. Riess zwei unterschiedliche Bereiche, die von Interesse sind. Zunächst einmal ermöglicht die KI eine effektivere Durchsuchung von Code und macht so eine automatische Suche nach Schwachstellen, die man angreifen kann, möglich. Diese Vorgehensweise ist aber nicht neu, sondern wird durch KI lediglich effizienter.

Der zweite Bereich hängt mit dem Thema “Phishing” zusammen. Hier vertritt Dr. Riess eine ähnliche Meinung, wie Prof. Steinebach. Seiner Aussage nach lassen sich Phishing-Angriffe mit KI-Unterstützung besser durchführen. „Die KI kann beispielsweise automatisch Webseiten – beispielsweise Institutswebseiten – untersuchen, die zu bestimmten Personen gehören und Aufschluss über ihre Hobbies und Interessen geben“, so Dr. Riess. „Anschließend erstellt sie eine an die genannte Person angepasste Phishing-Mail, die zum Beispiel so gestaltet sein könnte, dass sie von einem Sportverein kommt, bei dem das potentielle Opfer Mitglied ist. Phishing-Mails werden also immer schwerer erkennbar, obwohl sich der Aufwand sie zu generieren für die Angreifer ständig reduziert.“ Auch diese Entwicklung gilt laut Dr. Riess nicht als neu, die Mail-Erstellung war aber in der Vergangenheit mit einem zu großen Aufwand verbunden, um im großen Stil zum Einsatz zu kommen. Dr. Riess wies in diesem Zusammenhang zudem darauf hin, dass die Sprache beim Phishing immer im Vordergrund steht. Phishing-Mails mit fehlerhafter Sprache sind leicht identifizierbar, wenn aber jeder durch eine KI-Übersetzung in die Lage versetzt wird, eine Mail in gutem Deutsch zu produzieren, gewinnt die Gefährlichkeit der Angriffe eine neue Qualität.

KI als Verteidigungsschirm

Soll KI als Unterstützung bei der Verteidigung von IT-Umgebungen gegen Angriffe zum Einsatz kommen, so muss man sich laut Dr. Riess darüber klar werden, dass diese Tätigkeit deutlich komplizierter ist, als das Automatisieren von Angriffen. Angreifer müssen schließlich nur eine Schwachstelle suchen und finden, um diese anschließend auszunutzen. Das Sicherheitspersonal in den Organisationen kommt im Gegensatz dazu nicht darum herum, alles abzudichten, was existiert. Das führt zu einer Asymmetrie. Die KI kann den Menschen bei der Absicherung helfen, es gilt aber die schon von Bruce Schneier formulierte Regel “Computer können das Eine besser, Menschen das Andere”.

Große generative Modelle kommen beispielsweise bei der Verteidigung zum Einsatz, wenn es darum geht, die Supply-Chain gegen Produkte mit integrierten Hintertüren, beispielsweise aus Asien, zu härten. Überprüfungen der Supply-Chain sind ja wegen der ganzen Unterlieferanten sehr aufwendig. Eine KI geht dieses Problem an, indem sie eine Reihung erstellt, die festlegt, was zuerst zu prüfen ist. Hat zum Beispiel eine Abteilung oder ein Lieferant besonders viel Kontakt zu Lieferanten in potentiell feindlichen Staaten, so könnte es sinnvoll sein, diese zuerst unter die Lupe zu nehmen. In einem solchen Szenario würde also die KI die Liste erstellen und Menschen führen anschließend die eigentlichen Überprüfungen durch.

Auf der nächsten Seite: Perspektiven und das PeT-HMR-Projekt

(ID:49709058)

Jetzt Newsletter abonnieren

Wöchentlich die wichtigsten Infos zur Digitalisierung in der Verwaltung

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung