Künstliche Intelligenz Mensch und Maschine: Auf die Balance kommt es an

Ein Gastkommentar von Jason Langone 4 min Lesedauer

Anbieter zum Thema

Die Nutzung von künstlicher Intelligenz (KI) in Justiz- und Sicherheitsbehörden erfordert mehr als technische Vorbereitungen. Probleme mit Infrastruktur, Datenqualität, Compliance und Ethik behindern die praktische Umsetzung. Nichts Geringeres als das Vertrauen der Öffentlichkeit und deren Sicherheit stehen auf dem Spiel.

Der Faktor Mensch: Während KI Entscheidungsprozesse optimieren kann, sind es letztlich die Menschen hinter den Systemen, die ethische Integrität und einen funktionierenden Betrieb sicherstellen.(©  Dall-E / KI-generiert)
Der Faktor Mensch: Während KI Entscheidungsprozesse optimieren kann, sind es letztlich die Menschen hinter den Systemen, die ethische Integrität und einen funktionierenden Betrieb sicherstellen.
(© Dall-E / KI-generiert)

In den Diskussionen einer Expertenrunde der eu-LISA (Europäische Agentur für das Betriebsmanagement von IT-Großsystemen) letzten November in Budapest wurde ein grundlegendes Problem der KI-Einführung deutlich: Entsprechende Systeme haben zwar das Potenzial, Entscheidungsprozesse und Effizienz zu verbessern. Im laufenden Betrieb treten jedoch oftmals grundlegende Defizite offen zutage, die von Schwierigkeiten, die Systeme in die IT-Umgebung zu integrieren, bis zu ethischen Dilemmas reichen. Nur wenn sie die Defizite beseitigen, können Behörden von der vollen Leistungsfähigkeit künstlicher Intelligenz profitieren.

Vier zentrale Hürden

In ihren Analysen identifizierten die teilnehmenden Expertinnen und Experten vier Bereiche, die einer erfolgreichen KI-Einführung im Justiz- und Sicherheitswesen Steine in den Weg legen:

  • Infrastruktur: Der Schritt von KI-Pilotprojekten zum Live-Betrieb stellt viele Behörden vor Skalierungsprobleme. Das bestätigen auch die Ergebnisse der aktuellen Ausgabe der Studie Nutanix Enterprise Cloud Index (ECI): Die Integration in bestehende Systeme bleibt die größte Herausforderung bei der Skalierung von KI-Workloads im Öffentlichen Sektor.
  • Datenmanagement & Compliance: In sensiblen Bereichen wie Justiz und Innere Sicherheit verursachen Lücken in der Data Governance unmittelbar Risiken und stellen die Zuverlässigkeit von KI infrage. Die strengen Auflagen in der KI-Verordnung der EU (EU AI Act) verschärfen diese Problematik zusätzlich.
  • Ethik: Besonders in hochsensiblen Anwendungsbereichen wie dem Umgang mit biometrischen Daten oder bei prädiktiver Polizeiarbeit sind Transparenz und Vorurteilsfreiheit ein absolutes Muss. Gesellschaftliche Akzeptanz von KI-Systemen setzt dementsprechend praktische Anwendbarkeit und ethische Integrität voraus.
  • Fachwissen: Sowohl die Diskussionsrunde als auch die Umfrageergebnisse des ECI-Berichts erkennen im Mangel an KI-Spezialisten einen kritischen Engpass. Über die Hälfte der befragten Organisationen sehen einen dringenden Bedarf an gezielter Weiterbildung und Rekrutierung von Spezialisten zur Unterstützung künftiger KI-Initiativen.

Infrastruktur muss skalierbar sein

KI-Systeme sind nur so leistungsfähig wie die zugrundeliegende Infrastruktur. Gerade öffentliche Institutionen können sich Instabilität bei kritischen Systemen nicht erlauben – sei es bei prädiktiver Analytik oder generativer KI.

Mit überschaubaren Projekten beginnen, Anwendungsszenarien validieren, schrittweise skalieren.

Eine passende KI-Plattform benötigt eine robuste Architektur, um selbst die größten Skalierungsanforderungen zu erfüllen, wie sie etwa in Großunternehmen seit langem gang und gäbe sind. Erst eine derart leistungsfähige und skalierbare Plattform schafft die Voraussetzung dafür, Bereitstellungen zu vereinfachen und gleichzeitig für die erforderliche betriebliche Flexibilität zu sorgen. Kubernetes-basierte Lösungen ermöglichen dabei agile Workloads in verteilten Umgebungen wie der hybriden Multicloud.

Für Behörden und Unternehmen gleichermaßen empfiehlt sich vor diesem Hintergrund der strategische Ansatz „Mit überschaubaren Projekten beginnen, Anwendungsszenarien validieren, schrittweise skalieren“. Dadurch können sie Implementierungsrisiken minimieren und die Rendite auf getätigte Investitionen maximieren.

Governance schafft Vertrauen

Der AI Act der EU setzt einen regulatorischen Rahmen, der Innovation mit gesellschaftlichen Schutzinteressen in Einklang bringen soll. Doch formale Compliance ist nur die Basis. Bei der eu-LISA-Diskussion wurde deutlich: Unabhängige Testverfahren und Systeme für ein lückenloses Monitoring sind unerlässlich, um Vertrauen in KI-Systeme aufzubauen. Diese Kontrollmechanismen sorgen dafür, dass sensible Anwendungen wie Identitätsermittlung auf Basis biometrischer Merkmale die notwendigen Standards bezüglich Transparenz, Sicherheit und Verantwortlichkeit erfüllen.

Die Einführung von künstlicher Intelligenz in sicherheitskritischen Bereichen erfordert eine enge Kooperation zwischen Behörden, Industrie und Forschung.

Behörden wie Unternehmen sollten ihre KI-Modelle einer strikten Governance unterwerfen, um den gesamten Lebenszyklus der Systeme zu managen. Zentrale Repositorys für die Modelle, robuste Zugriffskontrollen und Monitoring-Tools können Risiken beseitigen und sorgen für Compliance in einem dynamischen Regulierungsumfeld. KI-Plattformen, die für Großunternehmen geeignet sind und sich dort bewährt haben, übernehmen hier eine Schlüsselfunktion.

Typisch menschlich: Kooperation und Kompetenz

Eine der wichtigsten Erkenntnisse der Expertenrunde lautete: Kein Akteur kann die Herausforderungen im Alleingang bewältigen. Die Einführung von künstlicher Intelligenz in sicherheitskritischen Bereichen erfordert eine enge Kooperation zwischen Behörden, Industrie und Forschung. Die Zusammenarbeit muss über den reinen Technologietransfer hinausgehen und den Austausch von methodischen Ansätzen, Erfahrungswerten und Best Practices umfassen.

Verbreitung und Vertiefung von KI-Kompetenz fördern eine Innovationskultur und machen Organisationen resilienter.

Der Faktor Mensch bleibt dabei entscheidend. Während künstliche Intelligenz Entscheidungsprozesse optimieren kann, sind es letztlich die Menschen hinter den Systemen, die ethische Integrität und einen funktionierenden Betrieb sicherstellen. Das zeigen auch die Ergebnisse des ECI-Berichts. Mehr als die Hälfte der untersuchten Organisationen investiert gezielt in Qualifizierungsprogramme für ihre Teams. Verbreitung und Vertiefung von KI-Kompetenz fördern eine Innovationskultur und machen Organisationen resilienter.

Die richtige Balance eröffnet Chance auf KI-Erfolg

Die Expertenrunde teilte die weit verbreitete Überzeugung, dass die Herausforderungen im Zusammenhang mit Einführung und Betrieb von KI sich nicht mit der Zeit in Luft auflösen werden. Besonders generative KI setzt die Bereiche Sicherheit und Datenschutz ganz oben auf die Prioritätenliste. Behörden und Organisationen modernisieren dementsprechend ihre Infrastruktur, überarbeiten Compliance-Prozesse und investieren in die Personalentwicklung. Mit dem richtigen Ansatz lassen sich diese Herausforderungen meistern.

Jetzt Newsletter abonnieren

Wöchentlich die wichtigsten Infos zur Digitalisierung in der Verwaltung

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Ein ausbalancierter Ansatz, der Exzellenz durch Technik mit Governance unter menschlicher Führung kombiniert, schafft das stabile Fundament für KI-Systeme, die nicht nur technisch funktionieren, sondern für Behörden und die ganze Gesellschaft echten Nutzen stiften. Gehen Justiz- und Sicherheitsbehörden die Herausforderungen bei der Einführung aktiv an, können sie sich mit der Chance auf eine erfolgreiche KI-Nutzung belohnen.

Der Autor: Jason Langone, Senior Director, Global AI Business Development bei Nutanix

(ID:50382140)