Innovationsmotor

6 Schritte zur produktiven KI

< zurück

Seite: 2/2

Anbieter zum Thema

Schritt 4: KI-Modelle trainieren & testen

Das A und O für den erfolgreichen Einsatz von KI ist ein gezieltes Training des Systems anhand einer belastbaren Datenbasis. Dabei kommt es nicht nur auf die Menge der Daten an, sondern auch darauf, dass diese aktuell, valide und nachvollziehbar sind. Bei Verwendung sensibler Bürgerdaten ist zudem die Datenschutzkonformität zu gewährleisten. Grundsätzlich gilt es auf zwei Dinge zu achten:

1. Einen verantwortungsvollen Umgang mit Daten

Personenbezogene Informationen wie Antragsdaten unterliegen strengen Datenschutzanforderungen, insbesondere denen der DSGVO. Gleichzeitig stuft der EU AI Act KI-Anwendungen, die über staatliche Leistungen entscheiden, als Hochrisiko-Systeme ein, mit entsprechenden Vorgaben an Transparenz, Kontrolle und Nachvollziehbarkeit. Kein Wunder: Immerhin können KI-gestützte Systeme in der Verwaltung direkte Auswirkungen auf die Rechte und Ansprüche von Bürgerinnen und Bürgern haben – mit gravierenden Folgen für die Betroffenen bei Fehlfunktionen.

Für Entwickler, Anbieter und Betreiber solcher Systeme bedeutet das: Sie müssen Risiken bewerten, Schutzmaßnahmen implementieren und nachweisen, dass die KI-Lösung konform betrieben wird. Für das Training wiederum heißt dies, dass ausschließlich anonymisierte, pseudonymisierte oder öffentlich zugängliche Daten verwendet werden dürfen. Wer sich frühzeitig mit diesen regulatorischen Vorgaben auseinandersetzt, stärkt das Vertrauen in die Technologie – und schafft die Grundlage für einen rechtssicheren Einsatz im Verwaltungsalltag.

Ergänzendes zum Thema

Für Verwaltungen relevante Regularien im Überblick

  • DSGVO: Regelt den Umgang mit personenbezogenen Daten und verleiht Betroffenen das Recht, nicht ausschließlich durch automatisierte Entscheidungen betroffen zu sein.
  • EU AI Act: Stuft KI-Anwendungen in Risikokategorien ein:
    • Verbotene KI (inakzeptables Risiko): Systeme, die die Sicherheit, die Unversehrtheit oder die Grundrechte von Menschen gefährden.
      Beispiel: biometrische Echtzeit-Gesichtserkennung im öffentlichen Raum
    • Hochrisiko-KI: KI-Anwendungen mit direkten Auswirkungen auf Gesundheit, Sicherheit oder Grundrechte.
      Beispiele: KI zur Bewilligung von Sozialleistungen, Systeme für die Strafverfolgung
    • Begrenztes Risiko (transparenzpflichtige KI): Systeme, bei denen Nutzerinnen und Nutzer wissen müssen, dass sie mit KI interagieren.
      Beispiele: Chatbots, KI-gestützte Entscheidungsassistenten
    • Minimales Risiko: Die meisten gängigen KI-Anwendungen, für die keine besonderen Vorschriften gelten.
      Beispiel: KI-gestützte Übersetzungshilfen
    • Je nach Risikograd macht der EU AI Act Auflagen hinsichtlich der Transparenz, des Risikomanagements und der menschlichen Aufsicht geltend.

  • BMI-Leitlinien für den Einsatz von KI in der Bundesverwaltung: Diese Grundsätze verpflichten zu Grundrechtskonformität, Informationssicherheit, digitaler Souveränität und der Vermeidung von Abhängigkeiten von einzelnen Anbietern.
  • BMAS-Leitlinien für den KI-Einsatz in der Arbeits- und Sozialverwaltung: Der selbstverpflichtende Orientierungsrahmen empfiehlt einen menschenzentrierten, diskriminierungsfreien und erklärbaren KI-Einsatz, bei dem Beteiligte frühzeitig in den Entwicklungsprozess eingebunden werden.

2. Das Kontrollieren von Ergebnissen, um Halluzinationen vorzubeugen

Auch fehlerhafte, veraltete oder unvollständig aufbereitete Daten führen schnell zu unzuverlässigen Ergebnissen, die im Verwaltungskontext schwerwiegende Folgen haben können. Denn immerhin hängen davon Entscheidungen über Leistungen oder Genehmigungen ab. Deshalb gilt es, die Ergebnisse immer zu kontrollieren und zu korrigieren. Insbesondere, weil generative Modelle wie ChatGPT zu überzeugend klingenden, aber falschen Ergebnissen neigen. Solche sogenannten „Halluzinationen“ lassen sich nur durch sorgfältiges Training, kontinuierliche Tests und eine saubere Qualitätssicherung wirksam eindämmen. Entscheidend ist dabei der Mensch: Als Kontrollinstanz prüft er Ergebnisse, korrigiert Fehler und sorgt so für verlässliche Resultate. Das zeigt auch: Die Sorge, KI könnte Fachleute kurzfristig ersetzen, ist unbegründet – der kritische Gegencheck durch erfahrene Menschen bleibt auf lange Sicht unverzichtbar.

Ein durchdachtes Trainingskonzept schafft die Basis für eine performante, nachvollziehbare und vertrauenswürdige KI, die vor allem eines liefert: besseren Bürgerservice im öffentlichen Sektor.

Schritt 5: Akzeptanz schaffen, Führungskräfte mit einbinden

KI lässt sich nur dann erfolgreich einsetzen, wenn die Mitarbeitenden sie verstehen, anwenden und ihren Nutzen sehen. Deshalb ist es wichtig, die Anwenderperspektive von Anfang an mit einzubeziehen. Sinnvoll sind daher diese Maßnahmen:

  • Ergebnisse nutzbar machen: Anwenderfreundliche Dashboards, Chatbots oder Schnittstellen, die die Ergebnisse verständlich aufbereiten und praxisnah bereitstellen, erleichtern der Belegschaft den Umgang mit KI.
  • Feedback systematisch umsetzen: Die Erfahrungen der User liefern wertvolle Hinweise zur Weiterentwicklung. Ob über Supportanfragen, Nutzungsmuster oder detaillierte Rückmeldungen – wer genau hinhört, verbessert seine KI nachhaltig.
  • Transparenz schaffen: Offenheit darüber, wo und wie KI zum Einsatz kommt – und welche Entscheidungen weiterhin in menschlicher Hand liegen – stärkt Vertrauen und Akzeptanz.

Die KI-Strategie ist Chefsache

Da Künstliche Intelligenz über die Zukunftsfähigkeit von Verwaltungen entscheidet, sollte sie bei den Führungskräften sogar ganz oben auf der Agenda stehen. Behördenleitungen sind gefordert, visionär zu denken, die eigene Organisation zu sensibilisieren, zu befähigen und zum Ausprobieren zu ermutigen.

Schritt 6: Betrieb & Monitoring

Nach dem Go-live ist vor dem Optimieren: Selbst gut trainierte KI-Modelle liefern nur dann dauerhaft verlässliche Ergebnisse, wenn sie kontinuierlich überprüft und angepasst werden. Denn verändert sich die Datenlage – etwa durch neue rechtliche Rahmenbedingungen, modifizierte Verwaltungsprozesse oder technologische Entwicklungen – ohne dass das Modell entsprechend angepasst wird, sinkt schnell die Genauigkeit der Resultate. Monitoring zeigt, wie gut die KI-Lösung noch performt, wo Fehlerquellen lauern und wann Nachjustierungen nötig sind. Ebenso lässt sich hier die Belegschaft wieder mit einbeziehen: Ihr Feedback liefert wertvolle Erkenntnisse, an welchen Stellschrauben es noch zu drehen gilt. So bleibt KI auch langfristig zuverlässig und nutzenstiftend.

Fazit: Produktive KI braucht mehr als Technik

Künstliche Intelligenz ist nicht nur ein Trend, sondern ein echter Gamechanger für den öffentlichen Sektor. Wer das Potenzial frühzeitig nutzt, sorgt für eine spürbare Verbesserung von Verwaltungsleistungen. Dabei muss der Einstieg nicht gleich ein Großprojekt sein: Oft reichen gut gewählte Use Cases, um erste Erfolge zu erzielen und den Weg für weitere Schritte zu ebnen. Ein guter Startpunkt sind etwa KI-gestützte Datenauswertungen oder standardisierte Verwaltungsprozesse. Solche einfachen Anwendungen vermitteln schnell ein Gefühl dafür, welchen Nutzen KI dem öffentlichen Dienst bringen kann. Damit ihr Einsatz gelingt, ist jedoch ein systematisches Vorgehen erforderlich: von der Identifikation geeigneter Anwendungsfälle über die Klärung technischer und rechtlicher Voraussetzungen bis hin zur Einbindung aller betroffenen Personen und Bereiche innerhalb und außerhalb der Organisation.

Jetzt Newsletter abonnieren

Wöchentlich die wichtigsten Infos zur Digitalisierung in der Verwaltung

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Markus Adolph
ist IT-Experte und Geschäftsführer der EBF-EDV Beratung Föllmer GmbH (ebf.com) aus Köln. Mit einem rund 100-köpfigen Team begleitet er Unternehmen bei der individuellen Transformation zum digitalen Arbeitsplatz. Markus Adolph studierte Technische Informatik an der Fachhochschule in Köln. Noch während seines Studiums und darüber hinaus arbeitete er als Systemberater bei dem IT- und Beratungsunternehmen IBM und begleitete dort diverse IT-Projekte.

Bildquelle: EBF-EDV Beratung Föllmer GmbH

(ID:50537697)