Wissenschaftliche Kolumne Sie sind ein Steuerbetrüger!
Anbieter zum Thema
Künstliche Intelligenz (KI) ist nicht immer objektiv: Der Kindergeldskandal in den Niederlanden liefert einen Beweis. Wie können wir uns vor den Fallstricken des sogenannten „Übervertrauens“ schützen? Ein wissenschaftlicher Blick auf Vertrauen, Übervertrauen und KI in der Öffentlichen Verwaltung.

Stellen Sie sich vor, Sie erhalten ein Schreiben, ausgedruckt natürlich, vom Finanzamt. Der Inhalt? Sie hätten erheblichen Steuerbetrug begangen. Natürlich wissen Sie, dass Steuererklärungen oft komplexe Angelegenheiten sind, aber Betrug? Das geht zu weit. Entschlossen setzen Sie alles daran, die Angelegenheit zu klären: Sie korrigieren, erläutern und legen dar. Doch all Ihre Bemühungen stoßen auf taube Ohren. Das maschinelle System hat Sie bereits als Betrüger identifiziert, und bis das widerlegt ist, behält es recht. Die Rückforderungen bleiben, die Zahlungsinformationen finden Sie praktischerweise direkt im Brief. Schließlich ist das System, das solch gravierende Entscheidungen trifft, teuer und umfassend – es berücksichtigt schließlich alle Daten und sollte objektiv sein, oder?
Ähnlich, auch wenn es sich nicht um Steuern, sondern um Kindergeldzahlungen handelte, ist es real Zehntausenden Eltern im Rahmen der Kindergeldaffäre in den Niederlanden ergangen. Ein automatisiertes System, das zur Identifizierung möglicher Betrugsfälle im Kindergeldbereich entwickelt wurde, klassifizierte Eltern ohne triftigen Grund als Betrüger. Diese Eltern standen plötzlich vor massiven Rückforderungen, oft im fünfstelligen Bereich. Ungeachtet ihrer Versuche, das Gegenteil zu beweisen und ihre Unschuld zu bekräftigen, wurden sie durch ein System, dem fast blind vertraut wurde, in eine Ecke gedrängt. Viele Familien gerieten in Folge dessen in finanzielle Not und einige verloren ihre Wohnungen. Der aus dem Skandal resultierende massive Vertrauensverlust in die staatlichen Institutionen führte sogar 2021 zum Regierungsrücktritt.
Der Skandal zeigt leider sehr eindrücklich die Risiken eines blinden Vertrauens in automatisierte Systeme und KI. In der Wissenschaft sprechen wir von „Übervertrauen“ (engl. overtrust). Dies bedeutet, dass wir maschinellen Systemen mehr Glauben schenken, als sie tatsächlich verdienen. Doch keine KI ist fehlerfrei. Übervertrauen kann dazu führen, dass menschliche Kontrollen und Intuitionen in den Hintergrund treten, was den Weg für Fehlentscheidungen und Ungerechtigkeiten ebnet.
Über die Kolumne
Praxis und Wissenschaft sind oftmals zwei Paar Stiefel, sie koexistieren, werden jedoch selten direkt zusammengeführt. Gerade den Praktikern fehlt auch häufig die Zeit, die einschlägige wissenschaftliche Literatur zu lesen. Dabei könnten die Erkenntnisse der Wissenschaft auch in den hiesigen Verwaltungen zur Verbesserung der Arbeitsweisen, zum Verständnis neuer Technologie und zum effektiven Einsatz dieser beitragen.
In unserer neuen wissenschaftlichen Kolumne arbeitet Björn Niehaves daher präzise, fundiert und praxisnah den Stand der Wissenschaft zu aktuellen relevanten Fragen oder einzelnen Publikationen auf und bringt sie mit der Praxis zusammen.
Vertrauen in automatisierte Systeme – mitarbeitenden- und bürgerseitig – ist natürlich ein notwendiger Faktor, damit KI in der Verwaltung überhaupt akzeptiert wird. Und dieses gewünschte Vertrauen, hier hat die Wissenschaft zahlreiche Forschungsergebnisse zu bieten, entsteht zunächst einmal aus dem Kontext, in dem die KI eingesetzt wird. Technische Aufgaben wie Datenanalysen sind dafür oft prädestiniert, da sie rasch und präzise riesige Datenmengen verarbeiten kann. In solchen Szenarien tendieren wir dazu, der Technologie mehr Vertrauen zu schenken. Die Art der Aufgabe und die Expertise des Einzelnen – Experten sind hier oft kritischer als Laien – beeinflussen maßgeblich, wie sehr wir KI vertrauen. Das Design von KI-Systemen kann ebenfalls unser Vertrauen beeinflussen. Physische Roboter beispielsweise, die wir sehen und anfassen können, werden oft als vertrauenswürdiger empfunden. Wenn diese Roboter menschenähnliche Züge oder Verhaltensweisen aufweisen (Anthropomorphismus), kann das Vertrauen weiter gestärkt werden. Ein „sympathisches“ Erscheinen von KI-Systemen kann ihre Akzeptanz tatsächlich steigern.
Ein weiterer entscheidender Faktor ist die Transparenz der Entscheidungsfindung. Wenn wir nachvollziehen können, wie eine Entscheidung zustande kommt, steigt unser Vertrauen. Das Gegenteil tritt ein, wenn KI-Systeme wie „Black Boxes“ agieren. Deshalb gibt es einen starken Trend hin zu sogenannter erklärbarer KI, die ihre Entscheidungswege offenlegt. Schließlich spielen auch die Sicherheit und Regulierung eine Rolle. Wir fühlen uns sicherer, wenn wir wissen, dass es Regulierungen gibt, die sicherstellen, dass KI ethisch und korrekt arbeitet. Zertifikate und Gütesiegel von vertrauenswürdigen Institutionen können weiterhin dazu beitragen, dieses Vertrauen zu stärken, eine Art „KI-TÜV“.
Doch wie können wir verhindern, dass das notwendige Vertrauen in KI zu einem schädlichen Übervertrauen wird? Ein ausgewogenes Verhältnis zwischen menschlicher Intuition und maschineller Präzision ist hier ganz entscheidend.
- 1. Es sollten klare Richtlinien für den KI-Einsatz definiert werden, die besagen, in welchen Bereichen KI agieren darf und wo menschliche Kontrolle unerlässlich ist (siehe EU AI Act). Gerade in sensiblen Bereichen sollte das Konzept des „Human-in-the-Loop“ verankert werden, wodurch stets eine menschliche Überprüfung und Intervention möglich ist. Etwas, das in obigem Fall nicht in ausreichendem Maße vorhanden war.
- 2. KI-Kompetenzen sind ebenfalls zentral. Sowohl Bürger als auch die Mitarbeitenden der Verwaltung müssen über die Fähigkeiten und Limitierungen von KI informiert werden. Ein kritisches Verständnis ermöglicht es den Menschen, KI-Empfehlungen im richtigen Kontext zu betrachten. Ohne KI-Kompetenz in der Verwaltung ist die Einführung und Nutzung ein hochriskantes Unterfangen!
- 3. Transparenz und Erklärbarkeit sind ebenfalls essenziell. Es geht hierbei nicht nur darum, wie Entscheidungen getroffen werden, sondern auch um den Umgang mit den zugrunde liegenden Daten. Externe Audits können helfen, die Integrität des KI-Systems sicherzustellen.
Es gibt noch viel zu lernen über Vertrauen und Übervertrauen in KI, und die Wissenschaft hat hier bereits wichtige Grundlagen gelegt. Diese Erkenntnisse können in die Verwaltungspraxis einfließen, um Systeme zu entwickeln, die wirklich für uns, die Bürgerinnen und Bürger, arbeiten. Damit sich nur diejenigen als Steuerbetrüger bezeichnen lassen müssen, die es auch wirklich sind.
Prof. Dr. Dr. Björn Niehaves
ist Informatikprofessor und Politikwissenschaftler, leitet die Arbeitsgruppe „Digitale Transformation öffentlicher Dienste“ an der Universität Bremen und berichtet in der wissenschaftlichen Kolumne über diverse aktuelle Forschungsergebnisse zur digitalen Verwaltung.
LinkedIN: www.linkedin.com/in/niehaves"
Bildquelle: Björn Niehaves
(ID:49686234)