Die Erstellung gefälschter Nachrichten, Bilder und Videos ist mithilfe Künstlicher Intelligenz (KI) so einfach wie nie. Werden diese Medien genutzt, um Bürger gezielt zu beeinflussen, gefährdet dies laut Marco Eggerling die Demokratie.
„Jeder Wahlkampf weltweit kann und wird womöglich in Zukunft durch KI-generierte Informationen beeinflusst werden“, mahnt Marco Eggerling. Der CISO EMEA des IT-Sicherheitsanbieters Check Point Software Technologies macht in diesem Satz klar, welche große Gefahr durch Künstliche Intelligenz entstehen kann und wohl bereits entstanden ist: die Gefährdung der Demokratie.
Billige Kopien
Zwei Aspekte dessen sind die drohende Abkopplung von sachlichen Debatten und die Gefahr durch Deepfakes. „Ob Nachrichten, Bilder, Videos oder sogar Podcasts: Nahezu jede Form audiovisueller Kommunikation kann über KI nachgebildet werden und ist teils kaum vom Original zu unterscheiden, das zur Generierung des neuen Inhalts verwendet wurde“, erläutert Eggerling. Das heißt: Zum einen können mithilfe Künstlicher Intelligenz Texte in großem Maßstab erstellt und auf bestimmte Wählergruppen zugeschnitten werden. Zum anderen können audiovisuelle Inhalte auf sehr realistische Art verändert werden – und zwar ohne großen finanziellen Aufwand.
Eggerling blickt mit Sorge Richtung USA, wo im kommenden Jahr die Präsidentschaftswahlen stattfinden: „Frühere Technologien wurden in erster Linie in Wahlkampagnen eingesetzt, um bestimmte Inhalte zu kuratieren und mit den Zielgruppen abzugleichen. Heute ist die Technologie zunehmend in der Lage, maßgeschneiderte Inhalte zu erstellen, was die Besorgnis über ihren Einfluss auf den öffentlichen Diskurs schürt.“
So könne zum Beispiel ein Text über den Bot ChatGPT nicht nur erstellt, sondern auch personalisiert werden. „Dabei können spezifische Parameter wie Alter, Geschlecht und geografischer Standort sowie Ziele festgelegt werden, die automatisch in die API (Application Programming Interface) eingespeist werden“, erklärt Eggerling. So entstehe ein überzeugender personalisierter Text, der die Zielgruppen im Sinne der Erfinder beeinflussen soll.
Deepfakes
Gefahr geht auch von den bereits erwähnten Deepfakes – gefälschten Sprach- oder Videoaufnahmen – aus. Bekannt geworden ist beispielsweise das gefälschte Foto von Papst Franziskus im weißen Daunenmantel. Mittlerweile gibt es zahllose Bilder und Videos von Prominenten oder auch Politikern, deren Gesichter ausgetauscht oder deren Lippenbewegungen verändert werden, um gefälschte Aussagen unterlegen zu können. Für Aufsehen hat auch das Video des ukrainischen Präsidenten Wolodymyr Selenskyj gesorgt, in dem er vermeintlich die Kapitulation der Ukraine verkündete. Hierzulande erinnert man sich vielleicht noch an das Telefonat zwischen Franziska Giffey und dem unechten Vitali Klitschko.
„Die Möglichkeit, über KI personalisierte Texte, Videos und Bilder zu erstellen und diese mikrogezielt an Wählergruppen zu senden, erzeugen neue Herausforderungen für Politik und Gesellschaft“, sagt Eggerling. „Fingierte Inhalte und Informationen können dafür sorgen, dass Diskussionen jeder sachlichen Grundlage entbehren. Ihre Erstellung und Verbreitung hat weitreichende Auswirkungen auf demokratische Prozesse.“ Eggerling meint, dass gefälschte Inhalte die Existenz eines freien, sinnvollen Austauschs von Ideen und Meinungen bedrohten – und damit die Voraussetzung für demokratische Wahlen. „In einer Realität, in der es immer schwieriger wird, Fälschungen zu erkennen, werden Quelle und Kontext einer Nachricht zu einem entscheidenden Faktor.“
Lösungsvorschläge
Man kann und muss diese Problematik angehen. Laut Eggerling braucht es dazu die Zusammenarbeit mehrerer Akteure: „Zuallererst müssen die Anbieter von KI proaktive Maßnahmen ergreifen, um den Missbrauch ihrer Technologie zu verhindern. Dazu müssen Regulierungsbehörden ihre Richtlinien neu bewerten und aktualisieren. Die wichtigste Voraussetzung für die Bewertung von Informationen ist jedoch die Nachvollziehbarkeit der Informationsquelle, der Identität des Sprechers und seiner Beweggründe. Daher wird in einigen Vorschlägen die Notwendigkeit betont, diese Details zusammen mit der Veröffentlichung KI-generierter Inhalte offenzulegen. Bei Gesprächen mit Bots wird gefordert, die Identität des Sprechers als KI-Chatbot zu deklarieren und die Absichten der KI zu verdeutlichen. Denkbar wäre hier, die Befehle aufzulisten, die dem KI-Bot zur Erstellung der Inhalte gegebenen wurden.“
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Eggerling bringt auch Initiativen ins Spiel. „WorldCoin von OpenAI beispielsweise“, sagt er, „ist eine digitale Identifizierungsplattform, deren Ziel es ist, Menschen die Möglichkeit zu geben, zu überprüfen, ob sie mit echten Menschen interagieren.“ Und auch in den sozialen Medien könne es einen Trend hin zur Validierung von Nutzerprofilen und Identitäten geben. „Wenn Informationen jeder Art gefälscht werden können, entscheiden sich Menschen womöglich eher für zuverlässige Quellen und Medien, die sich stärker für eine sorgfältige Überprüfung der Fakten, redaktionelle Standards und Verantwortlichkeit einsetzen“, so seine Hoffnung.
„Wer Quellen kritisch hinterfragt, quer checkt, den gesunden Menschenverstand nutzt und sich eigenständiges Denken bewahrt, schützt sich am Ende des Tages noch immer am besten vor Manipulation – egal ob Menschen- oder KI-gemacht“, so Eggerling.