Das A und O für den erfolgreichen Einsatz von KI ist ein gezieltes Training des Systems anhand einer belastbaren Datenbasis. Dabei kommt es nicht nur auf die Menge der Daten an, sondern auch darauf, dass diese aktuell, valide und nachvollziehbar sind. Bei Verwendung sensibler Bürgerdaten ist zudem die Datenschutzkonformität zu gewährleisten. Grundsätzlich gilt es auf zwei Dinge zu achten:
1. Einen verantwortungsvollen Umgang mit Daten
Personenbezogene Informationen wie Antragsdaten unterliegen strengen Datenschutzanforderungen, insbesondere denen der DSGVO. Gleichzeitig stuft der EU AI Act KI-Anwendungen, die über staatliche Leistungen entscheiden, als Hochrisiko-Systeme ein, mit entsprechenden Vorgaben an Transparenz, Kontrolle und Nachvollziehbarkeit. Kein Wunder: Immerhin können KI-gestützte Systeme in der Verwaltung direkte Auswirkungen auf die Rechte und Ansprüche von Bürgerinnen und Bürgern haben – mit gravierenden Folgen für die Betroffenen bei Fehlfunktionen.
Für Entwickler, Anbieter und Betreiber solcher Systeme bedeutet das: Sie müssen Risiken bewerten, Schutzmaßnahmen implementieren und nachweisen, dass die KI-Lösung konform betrieben wird. Für das Training wiederum heißt dies, dass ausschließlich anonymisierte, pseudonymisierte oder öffentlich zugängliche Daten verwendet werden dürfen. Wer sich frühzeitig mit diesen regulatorischen Vorgaben auseinandersetzt, stärkt das Vertrauen in die Technologie – und schafft die Grundlage für einen rechtssicheren Einsatz im Verwaltungsalltag.
Ergänzendes zum Thema
Für Verwaltungen relevante Regularien im Überblick
DSGVO: Regelt den Umgang mit personenbezogenen Daten und verleiht Betroffenen das Recht, nicht ausschließlich durch automatisierte Entscheidungen betroffen zu sein.
EU AI Act: Stuft KI-Anwendungen in Risikokategorien ein:
Verbotene KI (inakzeptables Risiko): Systeme, die die Sicherheit, die Unversehrtheit oder die Grundrechte von Menschen gefährden. Beispiel: biometrische Echtzeit-Gesichtserkennung im öffentlichen Raum
Hochrisiko-KI: KI-Anwendungen mit direkten Auswirkungen auf Gesundheit, Sicherheit oder Grundrechte. Beispiele: KI zur Bewilligung von Sozialleistungen, Systeme für die Strafverfolgung
Begrenztes Risiko (transparenzpflichtige KI): Systeme, bei denen Nutzerinnen und Nutzer wissen müssen, dass sie mit KI interagieren. Beispiele: Chatbots, KI-gestützte Entscheidungsassistenten
Minimales Risiko: Die meisten gängigen KI-Anwendungen, für die keine besonderen Vorschriften gelten. Beispiel: KI-gestützte Übersetzungshilfen
Je nach Risikograd macht der EU AI Act Auflagen hinsichtlich der Transparenz, des Risikomanagements und der menschlichen Aufsicht geltend.
BMI-Leitlinien für den Einsatz von KI in der Bundesverwaltung: Diese Grundsätze verpflichten zu Grundrechtskonformität, Informationssicherheit, digitaler Souveränität und der Vermeidung von Abhängigkeiten von einzelnen Anbietern.
BMAS-Leitlinien für den KI-Einsatz in der Arbeits- und Sozialverwaltung: Der selbstverpflichtende Orientierungsrahmen empfiehlt einen menschenzentrierten, diskriminierungsfreien und erklärbaren KI-Einsatz, bei dem Beteiligte frühzeitig in den Entwicklungsprozess eingebunden werden.
2. Das Kontrollieren von Ergebnissen, um Halluzinationen vorzubeugen
Auch fehlerhafte, veraltete oder unvollständig aufbereitete Daten führen schnell zu unzuverlässigen Ergebnissen, die im Verwaltungskontext schwerwiegende Folgen haben können. Denn immerhin hängen davon Entscheidungen über Leistungen oder Genehmigungen ab. Deshalb gilt es, die Ergebnisse immer zu kontrollieren und zu korrigieren. Insbesondere, weil generative Modelle wie ChatGPT zu überzeugend klingenden, aber falschen Ergebnissen neigen. Solche sogenannten „Halluzinationen“ lassen sich nur durch sorgfältiges Training, kontinuierliche Tests und eine saubere Qualitätssicherung wirksam eindämmen. Entscheidend ist dabei der Mensch: Als Kontrollinstanz prüft er Ergebnisse, korrigiert Fehler und sorgt so für verlässliche Resultate. Das zeigt auch: Die Sorge, KI könnte Fachleute kurzfristig ersetzen, ist unbegründet – der kritische Gegencheck durch erfahrene Menschen bleibt auf lange Sicht unverzichtbar.
Ein durchdachtes Trainingskonzept schafft die Basis für eine performante, nachvollziehbare und vertrauenswürdige KI, die vor allem eines liefert: besseren Bürgerservice im öffentlichen Sektor.
Schritt 5: Akzeptanz schaffen, Führungskräfte mit einbinden
KI lässt sich nur dann erfolgreich einsetzen, wenn die Mitarbeitenden sie verstehen, anwenden und ihren Nutzen sehen. Deshalb ist es wichtig, die Anwenderperspektive von Anfang an mit einzubeziehen. Sinnvoll sind daher diese Maßnahmen:
Ergebnisse nutzbar machen: Anwenderfreundliche Dashboards, Chatbots oder Schnittstellen, die die Ergebnisse verständlich aufbereiten und praxisnah bereitstellen, erleichtern der Belegschaft den Umgang mit KI.
Feedback systematisch umsetzen: Die Erfahrungen der User liefern wertvolle Hinweise zur Weiterentwicklung. Ob über Supportanfragen, Nutzungsmuster oder detaillierte Rückmeldungen – wer genau hinhört, verbessert seine KI nachhaltig.
Transparenz schaffen: Offenheit darüber, wo und wie KI zum Einsatz kommt – und welche Entscheidungen weiterhin in menschlicher Hand liegen – stärkt Vertrauen und Akzeptanz.
Die KI-Strategie ist Chefsache
Da Künstliche Intelligenz über die Zukunftsfähigkeit von Verwaltungen entscheidet, sollte sie bei den Führungskräften sogar ganz oben auf der Agenda stehen. Behördenleitungen sind gefordert, visionär zu denken, die eigene Organisation zu sensibilisieren, zu befähigen und zum Ausprobieren zu ermutigen.
Schritt 6: Betrieb & Monitoring
Nach dem Go-live ist vor dem Optimieren: Selbst gut trainierte KI-Modelle liefern nur dann dauerhaft verlässliche Ergebnisse, wenn sie kontinuierlich überprüft und angepasst werden. Denn verändert sich die Datenlage – etwa durch neue rechtliche Rahmenbedingungen, modifizierte Verwaltungsprozesse oder technologische Entwicklungen – ohne dass das Modell entsprechend angepasst wird, sinkt schnell die Genauigkeit der Resultate. Monitoring zeigt, wie gut die KI-Lösung noch performt, wo Fehlerquellen lauern und wann Nachjustierungen nötig sind. Ebenso lässt sich hier die Belegschaft wieder mit einbeziehen: Ihr Feedback liefert wertvolle Erkenntnisse, an welchen Stellschrauben es noch zu drehen gilt. So bleibt KI auch langfristig zuverlässig und nutzenstiftend.
Fazit: Produktive KI braucht mehr als Technik
Künstliche Intelligenz ist nicht nur ein Trend, sondern ein echter Gamechanger für den öffentlichen Sektor. Wer das Potenzial frühzeitig nutzt, sorgt für eine spürbare Verbesserung von Verwaltungsleistungen. Dabei muss der Einstieg nicht gleich ein Großprojekt sein: Oft reichen gut gewählte Use Cases, um erste Erfolge zu erzielen und den Weg für weitere Schritte zu ebnen. Ein guter Startpunkt sind etwa KI-gestützte Datenauswertungen oder standardisierte Verwaltungsprozesse. Solche einfachen Anwendungen vermitteln schnell ein Gefühl dafür, welchen Nutzen KI dem öffentlichen Dienst bringen kann. Damit ihr Einsatz gelingt, ist jedoch ein systematisches Vorgehen erforderlich: von der Identifikation geeigneter Anwendungsfälle über die Klärung technischer und rechtlicher Voraussetzungen bis hin zur Einbindung aller betroffenen Personen und Bereiche innerhalb und außerhalb der Organisation.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Markus Adolph ist IT-Experte und Geschäftsführer der EBF-EDV Beratung Föllmer GmbH (ebf.com) aus Köln. Mit einem rund 100-köpfigen Team begleitet er Unternehmen bei der individuellen Transformation zum digitalen Arbeitsplatz. Markus Adolph studierte Technische Informatik an der Fachhochschule in Köln. Noch während seines Studiums und darüber hinaus arbeitete er als Systemberater bei dem IT- und Beratungsunternehmen IBM und begleitete dort diverse IT-Projekte.