Künstliche Intelligenz und Demokratie Wahlen in Zeiten von Deepfakes

Von Susanne Ehneß Lesedauer: 3 min |

Anbieter zum Thema

Die Erstellung gefälschter Nachrichten, Bilder und Videos ist mithilfe Künstlicher Intelligenz (KI) so einfach wie nie. Werden diese ­Medien genutzt, um Bürger gezielt zu beeinflussen, gefährdet dies laut Marco Eggerling die Demokratie.

Deepfakes können Wahlen beeinflussen
Deepfakes können Wahlen beeinflussen
(© magele-picture - stock.adobe.com)

„Jeder Wahlkampf weltweit kann und wird womöglich in Zukunft durch KI-generierte Informationen beeinflusst werden“, mahnt Marco Eggerling. Der CISO EMEA des IT-Sicherheitsanbieters Check Point Software Technologies macht in diesem Satz klar, welche große Gefahr durch Künstliche Intelligenz entstehen kann und wohl bereits entstanden ist: die Gefährdung der Demokratie.

Billige Kopien

Zwei Aspekte dessen sind die drohende Abkopplung von sachlichen Debatten und die Gefahr durch Deepfakes. „Ob Nachrichten, Bilder, Videos oder sogar Podcasts: Nahezu jede Form audiovisueller Kommunikation kann über KI nachgebildet werden und ist teils kaum vom Original zu unterscheiden, das zur Generierung des neuen Inhalts verwendet wurde“, erläutert Eggerling. Das heißt: Zum einen können mithilfe Künstlicher Intelligenz Texte in großem Maßstab erstellt und auf bestimmte Wählergruppen zugeschnitten werden. Zum anderen können audiovisuelle Inhalte auf sehr realistische Art verändert werden – und zwar ohne großen finanziellen Aufwand.

Eggerling blickt mit Sorge Richtung USA, wo im kommenden Jahr die Präsidentschaftswahlen stattfinden: „Frühere Technologien wurden in erster Linie in Wahlkampagnen eingesetzt, um bestimmte Inhalte zu kuratieren und mit den Zielgruppen abzugleichen. Heute ist die Technologie zunehmend in der Lage, maßgeschneiderte Inhalte zu erstellen, was die Besorgnis über ihren Einfluss auf den öffentlichen Diskurs schürt.“

So könne zum Beispiel ein Text über den Bot ChatGPT nicht nur erstellt, sondern auch personalisiert werden. „Dabei können spezifische Parameter wie Alter, Geschlecht und geografischer Standort sowie Ziele festgelegt werden, die automatisch in die API (Application Programming Interface) eingespeist werden“, erklärt Eggerling. So entstehe ein überzeugender personalisierter Text, der die Zielgruppen im Sinne der Erfinder beeinflussen soll.

Deepfakes

Gefahr geht auch von den bereits erwähnten Deepfakes – gefälschten Sprach- oder Videoaufnahmen – aus. Bekannt geworden ist beispielsweise das gefälschte Foto von Papst Franziskus im weißen Daunenmantel. Mittlerweile gibt es zahllose Bilder und Videos von ­Prominenten oder auch Politikern, deren Gesichter ausgetauscht oder deren Lippenbewegungen verändert werden, um gefälschte Aussagen unterlegen zu können. Für ­Aufsehen hat auch das Video des ukrainischen Präsidenten Wolodymyr Selenskyj gesorgt, in dem er vermeintlich die Kapitulation der Ukraine verkündete. Hierzulande erinnert man sich vielleicht noch an das Telefonat zwischen Franziska Giffey und dem unechten Vitali Klitschko.

„Die Möglichkeit, über KI personalisierte Texte, Videos und Bilder zu erstellen und diese mikrogezielt an Wählergruppen zu senden, erzeugen neue Herausforderungen für Politik und Gesellschaft“, sagt Eggerling. „Fingierte Inhalte und Informationen können dafür sorgen, dass Diskussionen jeder sachlichen Grundlage entbehren. Ihre Erstellung und Verbreitung hat weitreichende Auswirkungen auf demokratische Prozesse.“ Eggerling meint, dass gefälschte Inhalte die Existenz eines freien, sinnvollen Austauschs von Ideen und Meinungen bedrohten – und damit die Voraussetzung für demokratische Wahlen. „In einer Realität, in der es immer schwieriger wird, Fälschungen zu erkennen, werden Quelle und Kontext einer Nachricht zu einem entscheidenden Faktor.“

Lösungsvorschläge

Man kann und muss diese Problematik angehen. Laut Eggerling braucht es dazu die Zusammenarbeit mehrerer Akteure: „Zuallererst müssen die Anbieter von KI proaktive Maßnahmen ergreifen, um den Missbrauch ihrer Technologie zu verhindern. Dazu müssen Regulierungsbehörden ihre Richtlinien neu bewerten und aktualisieren. Die wichtigste Voraussetzung für die Bewertung von Informationen ist jedoch die Nachvollziehbarkeit der Informationsquelle, der Identität des Sprechers und seiner Beweggründe. Daher wird in einigen Vorschlägen die Notwendigkeit betont, diese Details zusammen mit der Veröffentlichung KI-generierter Inhalte offenzulegen. Bei Gesprächen mit Bots wird gefordert, die Identität des Sprechers als KI-Chatbot zu deklarieren und die Absichten der KI zu verdeutlichen. Denkbar wäre hier, die Befehle aufzulisten, die dem KI-Bot zur Erstellung der Inhalte gegebenen wurden.“

Jetzt Newsletter abonnieren

Wöchentlich die wichtigsten Infos zur Digitalisierung in der Verwaltung

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Eggerling bringt auch Initiativen ins Spiel. „WorldCoin von OpenAI beispielsweise“, sagt er, „ist eine digitale Identifizierungsplattform, deren Ziel es ist, Menschen die Möglichkeit zu geben, zu überprüfen, ob sie mit echten Menschen interagieren.“ Und auch in den sozialen Medien könne es einen Trend hin zur Validierung von Nutzerprofilen und Identitäten geben. „Wenn Informationen jeder Art gefälscht werden können, entscheiden sich Menschen womöglich eher für zuverlässige Quellen und Medien, die sich stärker für eine sorgfältige Überprüfung der Fakten, redaktionelle Standards und Verantwortlichkeit einsetzen“, so seine Hoffnung.

„Wer Quellen kritisch hinterfragt, quer checkt, den gesunden Menschenverstand nutzt und sich eigenständiges Denken bewahrt, schützt sich am Ende des Tages noch immer am besten vor Manipulation – egal ob Menschen- oder KI-gemacht“, so Eggerling.

(ID:49723562)