Potenziale und Risiken künstlicher Intelligenz Wie sich ChatGPT, Bard und Co. auf die Cybersicherheit auswirken

Ein Gastbeitrag von Xavier Coemelck Lesedauer: 5 min

Anbieter zum Thema

Weswegen sich Führungskräfte und IT-Verantwortliche jetzt mit den neuen Entwicklungen auseinandersetzen müssen, legt Xavier Coemelck, Worldwide Vice President of Cybersecurity Sales & Services bei Entrust, dar.

Künstliche Intelligenz wird zunehmend wichtiger
Künstliche Intelligenz wird zunehmend wichtiger
(Bild: 3dkombinat - stock.adobe.com)

Das Thema künstliche Intelligenz (KI) und maschinelles Lernen hat zuletzt insbesondere durch die Weiterentwicklungen der großen Sprachmodelle von Open AI und Google in der öffentlichen Diskussion an Fahrt aufgenommen. Plötzlich scheint klar zu werden, dass diese vermeintlichen Zukunftstechnologien bereits mitten in der Gegenwart angekommen sind. Die Chatbots ChatGPT, Bard und andere KI-Sprachmodelle überraschen mit Fähigkeiten, die bisher noch für einige Zeit undenkbar schienen. Und auch wenn all diese Systeme zum jetzigen Zeitpunkt noch anfällig für Fehler sind, so zeigen sie doch bereits klar ihre Möglichkeiten für die verschiedensten Anwendungsbereiche auf. Es ist absehbar, dass KI-Sprachmodelle künftig eine immer wichtigere Grundlage für die Kommunikation zwischen Mensch und Maschine bilden werden. Sie lassen sich zudem für nahezu unbegrenzt skalierbare Softwareentwicklungen einsetzen und werden künftig umfangreiche wirtschaftliche Prozesse automatisieren. Wo ihre Limits liegen, ist nicht vorhersehbar.

Ein Bereich, auf den sich KI positiv auswirken kann, ist die Verbesserung der Effizienz öffentlicher Einrichtungen, sowohl für die Mitarbeiter als auch für die Bürger. Insbesondere im Bereich eGovernment sind die möglichen Anwendungen vielfältig. KI-Technologien haben das Potenzial, die Kommunikation mit Übersetzungen zu verbessern; sie können Texte, Sprache und Bilder erkennen, analysieren und vorhersagen und sie könnten Prognosen und Empfehlungen abgeben. Diese Fähigkeiten eröffnen das Potenzial, die Erfüllung behördlicher Aufgaben und die Interaktion mit den Bürgern zu beschleunigen und zu verbessern.

Gleichzeitig stellen sich beim Einsatz von dialogbasierten Chatbots in Behörden jedoch Fragen der Regulierung und der Ethik – inwieweit sollten Maschinen in mitunter lebensverändernde Entscheidungen für den einzelnen Bürger eingebunden werden? Darüber hinaus sind viele rechtliche Probleme derzeit noch ungeklärt (unter anderem die urheberrechtliche Schutzfähigkeit von KI-erzeugten Daten und Inhalten) bzw. sehr komplex – zum Beispiel, wenn es um den Schutz personenbezogener Daten geht. Beim Einsatz eines offenen KI-gestützten Systems für die Verarbeitung persönlicher Daten muss eine Vielzahl datenschutzrechtlicher Vorgaben beachtet werden. Da es sich bei KI-Sprachmodellen um neue Technologien handelt, liegen bisher jedoch nur sehr wenige Gerichtsentscheidungen oder Leitlinien von Aufsichtsbehörden zur Orientierung vor.

Ein weiterer erheblicher Unsicherheitsfaktor im Zusammenhang mit dem Einsatz von KI-Systemen ist das Thema Cybersicherheit. Hier ergeben sich vor allem im Bereich der Softwareentwicklung völlig neue Herausforderungen.

Große Sprachmodelle wie ChatGPT sind mit den gängigsten Programmiersprachen vertraut. Die Vorteile von KI-basierter Softwareentwicklung liegen auf der Hand: Wir werden zweifellos ein großes Maß an Effizienz gewinnen und repetitive Aufgaben automatisieren. Für die Entwicklung selbst komplexer Programme wird in Zukunft deutlich weniger Expertise notwendig sein. Aber auch die Risiken sind unzweifelhaft.

Erstens werden die großen KI-Modelle mithilfe von Open-Source-Projekten trainiert, sie greifen also für ihre Ergebnisse auf bestehende Kenntnisse zurück. Daher ist es nicht unwahrscheinlich, über mithilfe von KI-Sprachmodellen entwickelte Software auch Code in ein Unternehmen oder eine Institution einzuführen, dessen (Wieder-)Verwendung rechtliche Probleme in Bezug auf geistiges Eigentum mit sich bringen kann. Eine weitere Gefahr stellt das Einschleusen unsicheren, schadhaften Codes dar. Hier ist die Expertise von internen Entwicklern gefordert, die generierten Programme sehr genau zu prüfen und dafür zu sorgen, dass sie keinen schadhaften Code implementieren.

Leider ist auch eine bewusste Manipulation der für KI-Trainingsmodelle verwendeten Daten durch sogenannte Data Poisoning Attacks auf Open-Source-Plattformen sehr wahrscheinlich – ähnlich wie bei der massenhaften Verbreitung von Fake News über Bots auf Social-Media-Kanälen. Je abhängiger wir von KI-Systemen werden, desto mehr werden sie kriminelle Akteure zur Zielscheibe erklären.

Auf der nächsten Seite: Mensch statt KI.

Jetzt Newsletter abonnieren

Wöchentlich die wichtigsten Infos zur Digitalisierung in der Verwaltung

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

(ID:49426913)