Die Nutzung von künstlicher Intelligenz (KI) in Justiz- und Sicherheitsbehörden erfordert mehr als technische Vorbereitungen. Probleme mit Infrastruktur, Datenqualität, Compliance und Ethik behindern die praktische Umsetzung. Nichts Geringeres als das Vertrauen der Öffentlichkeit und deren Sicherheit stehen auf dem Spiel.
Der Faktor Mensch: Während KI Entscheidungsprozesse optimieren kann, sind es letztlich die Menschen hinter den Systemen, die ethische Integrität und einen funktionierenden Betrieb sicherstellen.
In den Diskussionen einer Expertenrunde der eu-LISA (Europäische Agentur für das Betriebsmanagement von IT-Großsystemen) letzten November in Budapest wurde ein grundlegendes Problem der KI-Einführung deutlich: Entsprechende Systeme haben zwar das Potenzial, Entscheidungsprozesse und Effizienz zu verbessern. Im laufenden Betrieb treten jedoch oftmals grundlegende Defizite offen zutage, die von Schwierigkeiten, die Systeme in die IT-Umgebung zu integrieren, bis zu ethischen Dilemmas reichen. Nur wenn sie die Defizite beseitigen, können Behörden von der vollen Leistungsfähigkeit künstlicher Intelligenz profitieren.
Vier zentrale Hürden
In ihren Analysen identifizierten die teilnehmenden Expertinnen und Experten vier Bereiche, die einer erfolgreichen KI-Einführung im Justiz- und Sicherheitswesen Steine in den Weg legen:
Infrastruktur: Der Schritt von KI-Pilotprojekten zum Live-Betrieb stellt viele Behörden vor Skalierungsprobleme. Das bestätigen auch die Ergebnisse der aktuellen Ausgabe der Studie Nutanix Enterprise Cloud Index (ECI): Die Integration in bestehende Systeme bleibt die größte Herausforderung bei der Skalierung von KI-Workloads im Öffentlichen Sektor.
Datenmanagement & Compliance: In sensiblen Bereichen wie Justiz und Innere Sicherheit verursachen Lücken in der Data Governance unmittelbar Risiken und stellen die Zuverlässigkeit von KI infrage. Die strengen Auflagen in der KI-Verordnung der EU (EU AI Act) verschärfen diese Problematik zusätzlich.
Ethik: Besonders in hochsensiblen Anwendungsbereichen wie dem Umgang mit biometrischen Daten oder bei prädiktiver Polizeiarbeit sind Transparenz und Vorurteilsfreiheit ein absolutes Muss. Gesellschaftliche Akzeptanz von KI-Systemen setzt dementsprechend praktische Anwendbarkeit und ethische Integrität voraus.
Fachwissen: Sowohl die Diskussionsrunde als auch die Umfrageergebnisse des ECI-Berichts erkennen im Mangel an KI-Spezialisten einen kritischen Engpass. Über die Hälfte der befragten Organisationen sehen einen dringenden Bedarf an gezielter Weiterbildung und Rekrutierung von Spezialisten zur Unterstützung künftiger KI-Initiativen.
Infrastruktur muss skalierbar sein
KI-Systeme sind nur so leistungsfähig wie die zugrundeliegende Infrastruktur. Gerade öffentliche Institutionen können sich Instabilität bei kritischen Systemen nicht erlauben – sei es bei prädiktiver Analytik oder generativer KI.
Mit überschaubaren Projekten beginnen, Anwendungsszenarien validieren, schrittweise skalieren.
Eine passende KI-Plattform benötigt eine robuste Architektur, um selbst die größten Skalierungsanforderungen zu erfüllen, wie sie etwa in Großunternehmen seit langem gang und gäbe sind. Erst eine derart leistungsfähige und skalierbare Plattform schafft die Voraussetzung dafür, Bereitstellungen zu vereinfachen und gleichzeitig für die erforderliche betriebliche Flexibilität zu sorgen. Kubernetes-basierte Lösungen ermöglichen dabei agile Workloads in verteilten Umgebungen wie der hybriden Multicloud.
Für Behörden und Unternehmen gleichermaßen empfiehlt sich vor diesem Hintergrund der strategische Ansatz „Mit überschaubaren Projekten beginnen, Anwendungsszenarien validieren, schrittweise skalieren“. Dadurch können sie Implementierungsrisiken minimieren und die Rendite auf getätigte Investitionen maximieren.
Governance schafft Vertrauen
Der AI Act der EU setzt einen regulatorischen Rahmen, der Innovation mit gesellschaftlichen Schutzinteressen in Einklang bringen soll. Doch formale Compliance ist nur die Basis. Bei der eu-LISA-Diskussion wurde deutlich: Unabhängige Testverfahren und Systeme für ein lückenloses Monitoring sind unerlässlich, um Vertrauen in KI-Systeme aufzubauen. Diese Kontrollmechanismen sorgen dafür, dass sensible Anwendungen wie Identitätsermittlung auf Basis biometrischer Merkmale die notwendigen Standards bezüglich Transparenz, Sicherheit und Verantwortlichkeit erfüllen.
Die Einführung von künstlicher Intelligenz in sicherheitskritischen Bereichen erfordert eine enge Kooperation zwischen Behörden, Industrie und Forschung.
Behörden wie Unternehmen sollten ihre KI-Modelle einer strikten Governance unterwerfen, um den gesamten Lebenszyklus der Systeme zu managen. Zentrale Repositorys für die Modelle, robuste Zugriffskontrollen und Monitoring-Tools können Risiken beseitigen und sorgen für Compliance in einem dynamischen Regulierungsumfeld. KI-Plattformen, die für Großunternehmen geeignet sind und sich dort bewährt haben, übernehmen hier eine Schlüsselfunktion.
Typisch menschlich: Kooperation und Kompetenz
Eine der wichtigsten Erkenntnisse der Expertenrunde lautete: Kein Akteur kann die Herausforderungen im Alleingang bewältigen. Die Einführung von künstlicher Intelligenz in sicherheitskritischen Bereichen erfordert eine enge Kooperation zwischen Behörden, Industrie und Forschung. Die Zusammenarbeit muss über den reinen Technologietransfer hinausgehen und den Austausch von methodischen Ansätzen, Erfahrungswerten und Best Practices umfassen.
Verbreitung und Vertiefung von KI-Kompetenz fördern eine Innovationskultur und machen Organisationen resilienter.
Der Faktor Mensch bleibt dabei entscheidend. Während künstliche Intelligenz Entscheidungsprozesse optimieren kann, sind es letztlich die Menschen hinter den Systemen, die ethische Integrität und einen funktionierenden Betrieb sicherstellen. Das zeigen auch die Ergebnisse des ECI-Berichts. Mehr als die Hälfte der untersuchten Organisationen investiert gezielt in Qualifizierungsprogramme für ihre Teams. Verbreitung und Vertiefung von KI-Kompetenz fördern eine Innovationskultur und machen Organisationen resilienter.
Die richtige Balance eröffnet Chance auf KI-Erfolg
Die Expertenrunde teilte die weit verbreitete Überzeugung, dass die Herausforderungen im Zusammenhang mit Einführung und Betrieb von KI sich nicht mit der Zeit in Luft auflösen werden. Besonders generative KI setzt die Bereiche Sicherheit und Datenschutz ganz oben auf die Prioritätenliste. Behörden und Organisationen modernisieren dementsprechend ihre Infrastruktur, überarbeiten Compliance-Prozesse und investieren in die Personalentwicklung. Mit dem richtigen Ansatz lassen sich diese Herausforderungen meistern.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Ein ausbalancierter Ansatz, der Exzellenz durch Technik mit Governance unter menschlicher Führung kombiniert, schafft das stabile Fundament für KI-Systeme, die nicht nur technisch funktionieren, sondern für Behörden und die ganze Gesellschaft echten Nutzen stiften. Gehen Justiz- und Sicherheitsbehörden die Herausforderungen bei der Einführung aktiv an, können sie sich mit der Chance auf eine erfolgreiche KI-Nutzung belohnen.
Der Autor: Jason Langone, Senior Director, Global AI Business Development bei Nutanix