Kann künstliche Intelligenz Wahlen manipulieren? (2024)

Kann künstliche Intelligenz Wahlen manipulieren? (1)

Im Jahr 2024 wird fast die halbe Weltbevölkerung aus über 70 Ländern an die Wahlurne gebeten. In Deutschland stehen unter anderem Landtagswahlen in Sachsen, Thüringen und Brandenburg an, auf EU-Ebene die Europawahl. Wie sehr könnten Inhalte, die mithilfe von künstlicher Intelligenz (KI) erstellt wurden, den Ausgang von Wahlen mitentscheiden?

Inhalt

  • Welche Gefahren drohen Wahlen durch künstliche Intelligenz?
  • Welche KI-Methoden werden für Wahlmanipulationen eingesetzt?
  • Wie nutzen deutsche Parteien KI?
  • Wie wollen Politik und Tech-Unternehmen gegen Wahlmanipulation vorgehen?

Welche Gefahren drohen Wahlen durch künstliche Intelligenz?

Dass Wahlen mithilfe von KI beeinflusst werden könnten, zeigt unter anderem der globale Risikoreport des Weltwirtschaftsforums. Demnach sind gezielt verbreitete Falschmeldungen eine sehr große Gefahr für die Legitimität demokratisch gewählter Regierungen.

Akteure, die mit undemokratischen Absichten versuchen, über die Wähler Einfluss auf fremde Staaten zu nehmen, werden auch in Deutschland öffentlich benannt. Konstantin von Notz, Vorsitzender des Parlamentarischen Kontrollgremiums des Bundestages, sagte der „taz“: „Es wird immer offensichtlicher, dass Russland massiv Einfluss nimmt, selbst auf Wahlen und Referenden. Wir werden das auch diesmal wieder bei den Europa- und Landtagswahlen erleben.“

Die typischen Ziele solcher Akteure (laut Analyse des Thinktanks CeMas):

  • Zersetzung von Vertrauen in die Demokratie
  • Diskreditieren von Parteien und Kandidaten
  • Abschreckung von Wählerinnen und Wählern vom Wahlgang

Welche KI-Methoden werden für Wahlmanipulationen eingesetzt?

Größtenteils Methoden werden aus der generativen KI angewendet: künstliche Fotos, Texte, Sprachaufnahmen oder Videos.

Diskreditierung von politischen Gegnern

Mithilfe von KI könnte zum Beispiel einer Politikerin eine Rede mit fragwürdigen Aussagen angedichtet werden, die sie nie gehalten hat. „Und wenn so etwas zeitlich geschickt, vielleicht fünf Tage vor Stimmabgabe platziert wird, kann es für die jeweilige Partei sehr ungut ausgehen“, sagte KI-Experte Marko Huber von der Uni Stuttgart gegenüber dem SWR.

In der Slowakei wurden kurz vor den Präsidentschaftswahlen 2023 Audiobotschaften bei Facebook veröffentlicht, in denen eine Klonstimme des progressiven Kandidaten Michal Simecka behauptet, dass er die Wahl fälschen wolle. In dem vorgeblich mitgeschnittenen „Gespräch“ sagte die Stimme auch, dass sie den Bierpreis im Land verdoppeln wolle. Ministerpräsident wurde mit kleinem Vorsprung der prorussische Kandidat Robert Fico. Ob der Stimmenfake Anteil am Wahlausgang hatte, bleibt aber unklar.

Ebenfalls hart durch eine KI-Attacke getroffen wurde Rumin Farhana. Ende 2023 war die führende Oppositionelle aus Bangladesch auf unterschiedlichen Plattformen mit Bikini zu sehen. Obwohl klar wurde, dass es sich um einen Deepfake handelt, löste das Video in dem mehrheitlich muslimischen Land Empörung aus.

Bildmanipulation mit KIKann ich gefälschte Fotos künftig noch erkennen? 30:00 Minuten24.08.2023

In New Hampshire bekamen Bürgerinnen und Bürger im Januar 2024 einen KI-Fake-Anruf von „Joe Biden“, der sie bat, nicht zu den Vorwahlen der Präsidentschaftswahl zu gehen. – ein sogenannter Robo Call.

KI für den Imagewandel

Was dazu taugt, Konkurrenz schlecht zu machen, wird manchmal auch für die eigene Imagepolitur eingesetzt.

Beispiel Indonesien: Dort hatte der Präsidentschaftskandidat Prabowo Subianto die Wahl im Februar 2024 für sich entschieden. Die Sympathien für den Ex-General, der auch für Menschenrechtsverletzungen verantwortlich gewesen sein soll, waren in der Bevölkerung eher nicht so groß. Das änderte sich, als sich Subianto mit generativer KI ein anderes (künstliches) Image verpassen ließ. Sein neuer Look als knuddeliger Cartoon-Senior kam vor allem bei jungen Wählerinnen und Wählern gut an.

Übrigens: Sich selbst durch KI visuell aufzuhübschen, wird auch als „Soft Fake“ bezeichnet.

Microtargeting

Microtrageting ist eine Form von KI, die in den Bereich des maschinellen Lernens fällt. Das Prinzip: Große Mengen individueller Daten – nicht selten aus sozialen Netzwerken – werden genutzt, um Interessen von kleinen Personenkreisen zu ermitteln. Mithilfe dieses Wissens werden die Interessensgruppen (manchmal sogar Einzelpersonen) mit Videos oder sonstigen Botschaften kontaktiert, die sich ungewöhnlich stark mit den persönlichsten Interessen der Empfänger decken. Bereits die thematische Übereinstimmung hilft dabei, Menschen auch politisch zu einer bestimmten Entscheidung zu überreden.

Der wohl bekannteste Fall von Microtargeting ist der Skandal um Cambridge Analytica. 2016 hatte das Unternehmen Daten von Millionen Facebook-Nutzern illegal abgezogen, um Persönlichkeitsprofile von US-Wählern zu erstellen. Letztere wurden später mit maßgeschneiderter Wahlwerbung adressiert. Auch bei der Brexit-Kampagne in Großbritannien hat Microtrageting eine wichtige Rolle gespielt.

In Indien wurde die Methode eingesetzt, um Social-Media-Nutzern passgenau Wahlbotschaften von Narendra Modizu präsentieren. Der Premierminister zeigte sich in den Videos allerdings nicht im echten Antlitz, sondern optisch geglättet: als Avatar.

Wie nutzen deutsche Parteien KI?

Bislang verwenden deutsche Parteien künstliche Intelligenz eher zurückhaltend. Das geht aus einer Befragung des Redaktionsnetzwerks Deutschland hervor. Demnach nutzen die Grünen generative KI punktuell für Datenmonitoring und teilweise für Social Media. Die SPD gab an, die Technologie noch nicht in der öffentlichen Kommunikation einzusetzen. Ähnlich sieht es bei der CDU aus. Deren Parteischwester CSU nutzt KI nur begrenzt für grafische Gestaltung. Die Linke hat der Umfrage zufolge keine konkreten Pläne, KI-generiertes Bildmaterial im Wahlkampf einzusetzen, schließt die Möglichkeit aber nicht aus.

AfD nutzt generative KI stark

Eine Ausnahme ist bislang die AfD. Die Partei hat in der Vergangenheit bereits öfter KI-erzeugte Inhalte veröffentlicht. So verbreitete die AfD Göppingen Fake-Bilder von einem schwer bewachten Weihnachtsmarkt, der mit Stacheldraht umzäunt ist. Eine andere unechte Darstellung zeigt den Feldberg – „verunstaltet“ durch zahlreiche Windräder.

Kommunikation der AfD Provozieren, polarisieren, normalisieren Kommunikation der AfD Provozieren, polarisieren, normalisieren Mit Umfragerekorden geht die AfD ins Superwahljahr 2024. Der Erfolg der Partei basiert maßgeblich auf ihrer Kommunikationsstrategie. Sie besteht aus vier Bausteinen und bedient sich einer Rhetorik, die auch von anderern rechten Akteuren genutzt wird.

Eine weiteres Beispiel: Auf einer Social-Media-Kachel erklärt eine Frau, warum sie Mitglied der AfD Göppingen geworden ist. Nach Aussage von KI-Experte Marco Huber im SWR ist die Dame KI-generiert.

Ausgerechnet zu Beginn des Fastenmonats Ramadan postete der AfD-Kreisverband Esslingen ein Bild eines deutschen Grillfests: Spanferkel im Vordergrund, gutgelaunte weiße Menschen am üppig gedeckten Tisch. Zwar ist dem Bild anhand der entstellten Gesichter klar anzusehen, dass es unecht ist. Eine Realitätsverzerrung bleibt es dennoch.

Redaktionell empfohlener externer Inhalt

Mit Aktivierung des Schalters (Blau) werden externe Inhalte angezeigt und personenbezogene Daten an Drittplattformen übermittelt. Deutschlandradio hat darauf keinen Einfluss. Näheres dazu lesen Sie in unserer Datenschutzerklärung. Sie können die Anzeige und die damit verbundene Datenübermittlung mit dem Schalter (Grau) jederzeit wieder deaktivieren.

Wie wollen Politik und Unternehmen gegen Wahlmanipulation vorgehen?

Am 13. März 2024 hat das EU-Parlament den AI Act verabschiedet. Das Gesetz ordnet KI-Anwendungen in Risikoklassen ein. Systeme, die als besonders risikoreich gelten, müssen strenge Anforderungen erfüllen. Anwendungen, die gegen EU-Werte verstoßen, sollen ganz verboten werden. Dazu gehören Programme, die Bürgerrechte einschränken oder den freien Willen beschneiden.

AI Act der EUFesseln für die künstliche Intelligenz Künstliche IntelligenzAktuelle Beiträge, Podcasts und Hintergründe

Im Februar 2024 haben 20 große Internetkonzerne denMunich-Tech-Accord unterzeichnet: eine Vereinbarung, mit der sie Fake News bekämpfen und KI-generierte politische Inhalte aufspüren wollen.

Auch Google plant im Kampf gegen Deepfakes einen Strategiewechsel: In einer Videokampagne will der Konzern Desinformation nicht erst nachträglich als solche enttarnen, sondern in einer Videokampagne schon vorab darüber informieren, welche Falschinfos zu einem späteren Zeitpunkt in die Welt gesetzt werden könnten.

OpenAI (Hersteller von ChatGPT) will Wasserzeichen in seinen Bildgenerator Dall-E einbauen und verbieten, dass ChatGPT Texte generiert, die für politische Kampagnen verwendet werden.

jma

Kann künstliche Intelligenz Wahlen manipulieren? (2024)

References

Top Articles
Latest Posts
Article information

Author: Trent Wehner

Last Updated:

Views: 6031

Rating: 4.6 / 5 (56 voted)

Reviews: 95% of readers found this page helpful

Author information

Name: Trent Wehner

Birthday: 1993-03-14

Address: 872 Kevin Squares, New Codyville, AK 01785-0416

Phone: +18698800304764

Job: Senior Farming Developer

Hobby: Paintball, Calligraphy, Hunting, Flying disc, Lapidary, Rafting, Inline skating

Introduction: My name is Trent Wehner, I am a talented, brainy, zealous, light, funny, gleaming, attractive person who loves writing and wants to share my knowledge and understanding with you.