Was künstliche Intelligenz für die Zukunft bringt KI und IT-Sicherheit – Partner oder Feinde?

Von Dr. Goetz Guettich Lesedauer: 10 min |

Anbieter zum Thema

In diesem Beitrag möchten wir uns mit der Frage auseinandersetzen, was Künstliche Intelligenz (KI) für die IT-Security bedeutet. Stellt sie eine Unterstützung bei der Abwehr von Angriffen dar, oder erleichtert sie hauptsächlich Angreifern die Arbeit? Was kommt in Zukunft auf uns zu? Diese Fragen haben wir mit Vertretern des Fraunhofer Instituts, der Universität Erlangen-Nürnberg und der Universität Lübeck besprochen.

Wird künstliche Intelligenz zum treuen Partner bei der Verteidigung von Unternehmensnetzen und sensiblen Daten oder zum unbezwingbaren Feind, der alles überrollt?
Wird künstliche Intelligenz zum treuen Partner bei der Verteidigung von Unternehmensnetzen und sensiblen Daten oder zum unbezwingbaren Feind, der alles überrollt?
(Bild: sdecoret - stock.adobe.com)

Prof. Dr. Martin Steinebach, Fraunhofer SIT | ATHENE Head of Media Security and IT Forensics.
Prof. Dr. Martin Steinebach, Fraunhofer SIT | ATHENE Head of Media Security and IT Forensics.
(Bild: Fraunhofer SIT)

Unser erster Ansprechpartner für diesen Artikel war Prof. Dr. Martin Steinebach, Head of Media Security and IT Forensics beim Fraunhofer SIT im nationalen Forschungszentrum für angewandte Cybersicherheit ATHENE. Er betonte zu Beginn unseres Gesprächs, dass KI im Multimedia-Bereich zum Absichern von Informationen eine große Rolle spielt. Beispielsweise zum Erkennen und Identifizieren von Deep Fakes und im Anwendungsfeld Text to Image. Nach seiner Aussage gewinnen zum Absichern der Daten jetzt Technologien wieder an Bedeutung, die schon viele Jahre alt sind und in der letzten Zeit keine besonders wichtige Rolle mehr gespielt haben, wie beispielsweise Wasserzeichen.

Sicherheit durch und für KI

Nach Aussage von Prof. Steinebach ist KI für bestimmte Anwendungsbereiche unverzichtbar. Dazu gehört unter anderem auch das Natural Language Processing. Die KI kann abgesehen davon auch dabei helfen, Desinformationen und Deep Fakes zu erkennen und KI-generierte Texte als solche zu kennzeichnen. „In diesem Bereich führt kein Weg an KI vorbei, schon wegen der schieren Masse der Texte“, so Prof. Steinebach. „Denken Sie an die EU-Chat-Kontrolle und die Hate-Speech-Analyse. Menschen sind gar nicht dazu in der Lage, so viel Content zu sichten. Die Vorsortierung – zum Beispiel beim automatischen Erkennen von Cyber-Grooming – muss die KI machen und am Ende können Menschen die wichtigsten Einträge analysieren und bestätigen. KI kommt in diesem Zusammenhang deutlich weiter, als alte Algorithmen, die die gleiche Aufgabe hatten.“

KI als Angreifer

KI kann nicht nur Malware und Phishing-Mails – zum Beispiel Texte, die die Anwender auffordern, ihre Passwörter zurückzusetzen - schreiben beziehungsweise übersetzen, sondern eignet sich auch zum Spear-Phishing. Dazu analysiert sie die Aussagen, das Verhalten und die Interessen der Opfer in sozialen Medien und schreibt dann eine passende Mail. Hat sich zum Beispiel ein Fan einer Band online bei einer passenden Fan-Vereinigung eingetragen, so könnte die KI das analysieren und eine Mail generieren, die ihn dazu bringt, sich auf einem Online-Portal zu registrieren und ein Fan-Foto hochzuladen, um einen Backstage-Pass für das nächste Konzert der Band in seiner Region zu bekommen. Nach der Registrierung erhält er dann natürlich keinen Backstage-Pass, sondern er gibt dabei lediglich weitere Daten über sich preis. Ein anderes Beispiel wäre jemand, der sich für Autos begeistert und durch das Versprechen ködern lässt, sich als einer der ersten 500 Nutzer eines neuen Reinigungsmittels für Autos zu registrieren, um dieses kostenlos zu erhalten. Solche Vorgehensweisen sind momentan aus der Praxis zwar noch nicht bekannt, werden aber wohl bald zum Alltag gehören. Geduldiges Beobachten und Analysieren wird durch KI zunehmend automatisiert und damit sinkt der Aufwand für potentielle Angreifer. Umgekehrt verwendet die Polizei KI, um auf die gleiche Weise Verbrecher zu analysieren und so Täterprofile zu erstellen.

Regeln können das genannte Vorgehen teilweise verhindern, zum Beispiel, indem die Verantwortlichen in einen Chatbot wie ChatGPT (Chat Generative Pre-trained Transformer) die Regel implementieren, bestimmte Nutzeranfragen abzulehnen. Auf diese Weise lassen sich aber nicht alle Angriffsszenarien abdecken. In diesem Zusammenhang muss man auch bedenken, dass es Open-Source-KI-Lösungen gibt, die immer besser werden und die ohne Regeln arbeiten.

KI als Verteidiger

Aufgrund des Fachkräftemangels spielt KI nach Aussage von Prof. Steinebach eine zentrale Rolle beim Automatisieren der IT-Sicherheit. Wegen des Wachstums bei der Cyber-Kriminalität und bei den Anwendungen gibt es dazu überhaupt keine Alternative. Es existieren einfach nicht genug Sicherheitsexperten, deshalb muss die KI diese Aufgabe mit übernehmen.

Außerdem werden automatisierte Angriffe so schnell, dass Menschen gar nicht rechtzeitig darauf reagieren können. Beispielsweise ist es denkbar, dass autonome, intelligente und skalierbare Bots schnelle Angriffe von verschiedenen Seiten aus durchführen. Solchen Attacken hätte kein Administrator etwas entgegenzusetzen. Das stellt momentan allerdings noch ein zukünftiges Problem dar.

Auf der nächsten Seite: Realistische Daten und Automatisierung

(ID:49709058)

Jetzt Newsletter abonnieren

Wöchentlich die wichtigsten Infos zur Digitalisierung in der Verwaltung

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung