ResurgamINTERNATIONAL
INFORMATION UND ANALYSE
GEMEINSCHAFT
Suche
Menu
27. Apr. 2025 | 12 MIN.
Teilen:FacebookXingTelegram
Kopiert!

Künstliche Intelligenz bei Wahlen: Wie Technologien die Demokratie im Jahr 2024 beeinflusst haben

alt

Iryna Mischtschenko

Photo: Shutterstock

Laut dem Global Risks Report 2024 sind Desinformation und manipulative Kampagnen in der kurzfristigen Perspektive zur größten globalen Bedrohung geworden. Gleichzeitig bleibt die Desinformation in der langfristigen Prognose für das nächste Jahrzehnt eine der größten Herausforderungen und rangiert auf Platz fünf der globalen Risikorangliste.

Photo: World Economic Forum

Anfang 2024 veröffentlichte das Weltwirtschaftsforum einen Bericht, der das voraussichtliche Ausmaß des Desinformationsrisiken in verschiedenen Ländern aufzeigt - von Indien, wo Desinformation als Bedrohung Nr. 1 eingestuft wurde, bis hin zu den Vereinigten Staaten und Europa, wo sie zu den zehn größten Risiken zählt.

Photo: World Economic Forum

Wenn wir nun auf die Ereignisse des Jahres 2024 zurückblicken, sehen wir, wie zutreffend diese Vorhersagen waren. In mehr als 60 Ländern der Welt wurden Wahlen abgehalten - es war ein Rekordjahr für die Demokratie. Aber es war auch ein Rekordjahr für Desinformation.

Von den Vereinigten Staaten bis Indonesien haben Kandidaten, ihre Kampagnen und sogar einfache Unterstützer KI eingesetzt, um Wähler zu beeinflussen, Emotionen zu manipulieren, Fake News zu verbreiten oder... die Wahrheit zu leugnen.

In diesem Artikel haben wir die eindrucksvollsten Beispiele dafür gesammelt, wie künstliche Intelligenz Kandidaten bei ihrem Machtstreben in der ganzen Welt geholfen (oder geschadet) hat.

Wir werden über die USA, Indien, Japan, Indonesien und Pakistan sprechen.

Illusion der Unterstützung: Wie künstliche Intelligenz das Bild eines Kandidaten in den Köpfen der Wähler prägt

Im August 2024 wurde ein erbitterter Kampf nicht nur um Stimmen, sondern auch um... die Realität geführt. In Detroit versammelten sich mehr als 15 000 Menschen, um Vizepräsidentin Kamala Harris und ihren Mitstreiter Tim Walz zu unterstützen. Fotos und Videos von der Kundgebung überschwemmten die Medien. Doch Donald Trump behauptete, die Menge sei eine von einer künstlichen Intelligenz erzeugte Fiktion. Ohne jeden Beweis, ohne Widerlegung nach der Enthüllung.

Abbildung Szene aus einer Kundgebung von K. Harris und T. Walz in Detroit am 7. August. Photo from open sources

Illustration  von D. Trumps Beitrag. Photo from open sources

Dies ist ein klassisches Beispiel für die sogenannte "Lügendividende" - wenn die bloße Existenz von Technologien wie Deep Fakes oder generativer KI zu einem Werkzeug für die Leugnung der Wahrheit wird. Der Begriff "Lügendividende" wurde erstmals 2018 in einer Studie detailliert beschrieben. Es handelt sich um eine Situation, in der Politiker und Personen des öffentlichen Lebens das wachsende Misstrauen gegenüber digitalen Inhalten nutzen, um wahrheitsgemäße Informationen zu leugnen. Wenn ein Video oder eine Audioaufnahme sie der Korruption, der Lüge oder des Verbrechens überführt, reicht es aus, zu sagen, dass es sich um eine künstliche Intelligenz handelt, die eine Stimme oder ein Gesicht imitiert. Eine Gesellschaft, die von Fälschungen, Zweifeln und Informationsrausch überwältigt ist, ist bereit, dies zu glauben.

In den Vereinigten Staaten wurde eine Studie durchgeführt, an der 15.000 Personen teilnahmen. Die Ergebnisse zeigten, dass Politiker, die die Wahrheit für "falsch" erklären, mehr Unterstützung erhalten als solche, die einfach schweigen oder sich entschuldigen.

Während der Wahlen 2024 haben sich die Desinformationstaktiken in den Vereinigten Staaten gewandelt: Während 2016 die Hauptbedrohung von externen Akteuren ausging, wurden die Fälschungen diesmal von den amerikanischen Wählern selbst erstellt und verbreitet. Konservative Blogger setzten aktiv KI ein, um Bilder von Donald Trump zu posten, die ihn umgeben von schwarzen Wählern zeigen, um die Illusion seiner massiven Unterstützung in dieser Gemeinschaft zu erwecken, einer wichtigen Wählerschaft, die Joe Bidens Sieg im Jahr 2020 sicherte.

Das Bild, das vom Radiomoderator Mark Kaye und seinem Team mithilfe von KI erstellt und verbreitet wurde, ist eine von Dutzenden Fälschungen, die schwarze Trump-Anhänger zeigen. AI-Generated image

Ein aufschlussreiches Beispiel ist ein Bild von Trump mit einer Gruppe schwarzer Wähler auf einer Veranda. Ursprünglich handelte es sich um einen satirischen Beitrag, aber die Situation änderte sich, als der X-Nutzer unter dem Spitznamen Shaggy eine Bildunterschrift hinzufügte, in der es hieß, Donald Trump habe seine Autokolonne angehalten, um diese Menschen persönlich zu treffen. Das Ergebnis waren über 1,3 Millionen Aufrufe.

Das Bild wurde in den sozialen Medien mit der Bildunterschrift verbreitet, dass Trump seine Autokolonne angehalten habe, um ein Foto mit diesen Männern zu machen. AI-Generated image

Dies ist nur ein Fall, der zeigt, wie Trumps umfangreiches Netzwerk von Influencern funktioniert. Sie haben keinen offiziellen Status, aber ihre Botschaften fügen sich perfekt in den günstigen Informationshintergrund des Kandidaten ein. Dank diesem dezentralen Modell der Desinformation wird jeder Fake als "Volksmeinung" und nicht als geplante Kampagne wahrgenommen, was die Bekämpfung von Manipulationen noch schwieriger macht.

Trotz der Bemühungen der sozialen Netzwerke, künstlich erstellte Bilder zu kennzeichnen, und der Arbeit von Faktencheckern,  prägt die Welle gefälschter Inhalte weiterhin die öffentliche Meinung.

"Selbst wenn man weiß, dass es nicht wahr ist, kann die ständige Wiederholung von Fake News, die die Unterstützung für einen bestimmten Kandidaten übertreiben, Spuren im Gedächtnis hinterlassen", sagt Peter Adams, Senior Vice President of Research beim News Literacy Project.

Trump und sein Netzwerk von loyalen Influencern verwendeten während des Wahlkampfs aktiv gefälschte Inhalte. So wurde beispielsweise ein Bild von Taylor Swift veröffentlicht, auf dem sie angeblich Trump unterstützte, während die Sängerin in Wirklichkeit Kamala Harris offen unterstützte.

Illustration von Fake News über Taylor Swifts angebliche Unterstützung für Trump

Ein weiteres KI-generiertes Bild zeigte Trump im Mittelpunkt der Überschwemmungen nach dem Hurrikan am Vorabend der Wahlen, wo er an der Seite von Rettungskräften ging:AI-Generated image

Und ein weiteres Foto zeigte, wie er den Opfern angeblich Schecks über 1.300 Dollar überreichte. All diese Geschichten hatten nichts mit der Realität zu tun.AI-Generated image

Dies sind nur einige Beispiele aus einer großen Kampagne, bei der ein Trump nahestehendes Netzwerk von Influencern massiv KI-generierte Fakes zu dessen Unterstützung verbreitet hat. Menschen, die durch ihre Feeds scrollen, denken selten über die Authentizität dessen nach, was sie sehen - die meisten bemerken die Fälschung nicht einmal. Es sind jedoch die Häufigkeit und die Menge solcher Inhalte, die in den Köpfen der Menschen ein bestimmtes Bild eines Kandidaten entstehen lassen, unabhängig davon, ob es wahr ist oder nicht.

Wenn Politiker vom Jenseits sprechen: Wie KI die indischen Wahlen veränderte

Die Gesamtwahlen in Indien im Jahr 2024 waren nicht nur die größten der Welt, was die Zahl der Wähler angeht - fast eine Milliarde Bürger -, sondern wurden auch zu einem anschaulichen Beispiel dafür, wie künstliche Intelligenz das Wesen der politischen Kommunikation verändern kann.

In einem Land, in dem die Alphabetisierungsrate nur 77,7% beträgt und mehr als 22 Prozent der Bürgerinnen und Bürger nicht lesen und schreiben können, haben sich die traditionellen Methoden der Wahlwerbung als unzulänglich erwiesen. Die politischen Parteien, darunter auch die regierende BJP, haben auf Innovationen gesetzt: Sprachanrufe, Audiobotschaften, personalisierte Videobotschaften, massive Deep Fakes und sogar die Wiederauferstehung früherer Führer.

Personalisierte Anrufe durch Roboter wurden zu einem wichtigen Instrument. Die Kosten für solche Anrufe waren achtmal billiger als die von Callcentern, aber sie erzeugten den Effekt eines persönlichen Kontakts. Millionen Inder erhielten einen Anruf mit der Stimme von Narendra Modi, der sie aufforderte, zur Wahl zu gehen. Für viele war dies ein Ereignis - nach der Stimmabgabe erzählten die Menschen, dass "der Ministerpräsident selbst sie eingeladen hat". Einige Wähler waren sich nicht einmal bewusst, dass sie mit einem Algorithmus und nicht mit einer Person sprachen.

KI half, die Sprachbarriere zu überwinden - in einem Land mit 22 Amtssprachen und Hunderten von Dialekten "sprach" Modi in Dialekten, die er nie konnte.

Die Personalisierung war jedoch nicht die einzige technologische Innovation. Der Wahlkampf entwickelte sich zu einem Krieg der Deep Fakes. Die Spitzenpolitiker "tanzten" in gefälschten Videos, sangen Bollywood-Songs und gaben fiktive Erklärungen ab. Doch das eigentliche Know-how waren die "wiederauferstandenen" Politiker.

Es gibt mindestens drei Fälle, in denen Parteien KI nutzen, um Botschaften von längst verstorbenen Führern zu erstellen. Ein virtueller  A.I. Karunanidhi, die Kultfigur aus Tamil Nadu, rief zur Unterstützung der Jugend und der Demokratie auf. Die Stimme der 2016 verstorbenen Jayalalithaa rief die Bürger auf, einen bestimmten Kandidaten zu unterstützen. In einem anderen Fall "erweckte" der Sohn eines Politikers seinen Vater zu neuem Leben, um für sich selbst zu werben.AI-Generated image

Japan wählt die Zukunft: Wie ein Programmierer mit einem KI-Avatar die politische Kommunikation in Tokio veränderte

In einem Land, in dem Tradition und hohe Technologien eng miteinander verwoben sind, wird die politische Kampagne des 33-jährigen Programmierers Takahiro als Durchbruch in der Interaktion zwischen Regierung und Bürgern in Erinnerung bleiben. Im Jahr 2024 beschloss der Unternehmer, inspiriert von seinen eigenen Science-Fiction-Gedanken über die Rolle der künstlichen Intelligenz in der Politik, die bestehenden Regeln in Frage zu stellen. Sein Ziel war einfach und ehrgeizig zugleich: Er wollte das veraltete Modell der einseitigen Kommunikation zwischen Kandidaten und Wählern durchbrechen.

Ohne politische Erfahrung, aber mit technologischen Kenntnissen, startete Takahiro seine Kampagne für das Amt des Gouverneurs von Tokio. Innerhalb weniger Monate belegte er den fünften Platz unter 56 Kandidaten und erregte damit nicht nur die Aufmerksamkeit der Japaner, sondern auch der Experten in aller Welt.

Die Kampagne von Takahiro ist zu einem Modell dafür geworden, wie künstliche Intelligenz in drei Schritten in demokratische Prozesse integriert werden kann:

  1. Vom Zuhören zum Verstehen.

    Der erste Schritt war eine groß angelegte öffentliche Meinungsumfrage. Anhand von Kommentaren in sozialen Medien analysierte die KI Tausende von Antworten, ordnete sie in thematische Gruppen ein und machte sich ein reales Bild von den Wünschen und Problemen der Einwohner Tokios.

  2. Vom Manifest zum Dialog.

    Anstatt den Wählern ein vorgefertigtes Programm zu diktieren, eröffnete Takahiro eine Plattform für Vorschläge. Sein Team sammelte und systematisierte Ideen der Bürger und machte aus ihren Meinungen die Grundlage für seine Politik.

  3. KI ist in Kontakt.

Den Höhepunkt bildete die Einführung eines Avatars, KI Takahiro. Der virtuelle Kandidat beantwortete die Fragen der Wähler in Echtzeit, erläuterte seine Positionen und demonstrierte ein neues Niveau der Zugänglichkeit.

"Zum ersten Mal hatten die Menschen das Gefühl, dass man ihnen nicht nur zuhörte, sondern ihnen zuhörte und sie auch berücksichtigte", sagte Takahiro in einem Interview.

Obwohl er nicht gewann, wurde im Februar 2025 bekannt, dass der derzeitige Gouverneur von Tokio, sein ehemaliger Gegner, Takahiro zur Zusammenarbeit einlud. Gemeinsam starteten sie ein Projekt, bei dem Takahiros System zur Sammlung öffentlicher Ideen zu einem offiziellen Instrument der Stadtverwaltung wurde. Jetzt hilft künstliche Intelligenz den Behörden, die Stimmen der Bürger zu identifizieren, die Aufmerksamkeit verdienen - nicht durch bürokratische Verfahren, sondern durch einen lebendigen digitalen Dialog.

Künstliche Intelligenz im Dienste der Politik: Wie Pakistan zu einem Schauplatz für Deep Fakes und virtuelle Reden wurde

Im Jahr 2024, als Pakistan erneut in einen Strudel politischer Instabilität geriet, erregte nicht so sehr das Wahlergebnis die Aufmerksamkeit der Weltöffentlichkeit, sondern die Art und Weise, wie die Opposition um ihre Stimme kämpfte. In einem Land, in dem die Demokratie seit langem an Unterdrückung grenzt und militärische Einflussnahme in jeder Phase des politischen Prozesses spürbar ist, wurde künstliche Intelligenz plötzlich zu einem Werkzeug des Widerstands.

Der ehemalige Premierminister Imran Khan, der wegen Korruptionsvorwürfen zu zehn Jahren Haft verurteilt wurde und von der Teilnahme an den Wahlen ausgeschlossen war, fand einen Weg, im Wahlkampf präsent zu bleiben - auch wenn er hinter Gittern saß. Sein Team veröffentlichte eine Reihe von Botschaften, in denen Khans Stimme und Bild mithilfe von KI nachgebildet wurden. Algorithmen verwandelten aus dem Gefängnis übermittelte Notizen in Reden, die sich sofort über digitale Kanäle verbreiteten. AI-Generated image

Als die Auszählung der Stimmen am 8. Februar beendet war und bekannt gegeben wurde, dass die unabhängigen Kandidaten von Khans Partei Pakistan Tehreek-e-Insaf (PTI) die meisten Sitze im Parlament gewonnen hatten, war es Imran Khans virtuelle Stimme, die den Sieg verkündete. Es war der symbolische Höhepunkt des Wahlkampfs, in dem ein von der Gesellschaft isolierter Politiker seine Anhänger mit Hilfe der Technologie inspirierte.

Die politische Realität in Pakistan erwies sich jedoch als komplexer als die Arithmetik der Wahlprotokolle. Aufgrund des Verbots der PTI waren die Kandidaten gezwungen, als Unabhängige zu kandidieren, und nach den Wahlen schlossen sie sich der Partei Sunni Ittehad Council (SIC) an, wodurch sie die größte Fraktion in der Nationalversammlung bilden konnten.

Aber keine einzelne Kraft erlangte eine absolute Mehrheit. Die Macht kehrte in die Hände der bekannten Akteure zurück: Die Pakistan Muslim League (Nawaz) (PML-N) unter der Führung von Shahbaz Sharif ging eine Koalition mit der Pakistan People's Party (PPP) und anderen Verbündeten ein. Sharif, der bereits als Premierminister fungiert hatte, kehrte an die Spitze des Landes zurück.

Die pakistanische Realität hat jedoch auch die dunkle Seite der neuen Technologien gezeigt. In einem Land, in dem patriarchalische Normen noch immer den gesellschaftlichen Rahmen bestimmen, sind sexualisierte Deep Fakes zu einer mächtigen Waffe gegen Frauen in der Politik geworden.

Eine der Oppositionsführerinnen wurde Opfer einer Diskreditierungskampagne mit gefälschten Videos intimer Natur, um ihren Ruf zu zerstören. In einem Umfeld, in dem das Konzept der "Ehre" extrem wichtig ist und die Zahl der Ehrenmorde jedes Jahr in die Hunderte geht, werden solche Fälschungen nicht nur zu einem politischen Druckmittel, sondern auch zu einer echten Bedrohung für das Leben.

In Pakistan wächst der Internetzugang rapide. Dieser digitale Durchbruch geht jedoch mit einem niedrigen Niveau an Medienkompetenz einher. Für Millionen von neuen Nutzern wird alles, was auf dem Bildschirm eines Smartphones erscheint, als wahr angesehen. In einem solchen Umfeld haben Deep Fakes einen besonderen Einfluss - die Gesellschaft hat noch nicht gelernt, an dem zu zweifeln, was sie sieht.

Indonesien: Vom "blutigen General" zum niedlichen Bild für die TikTok-Generation

Im Februar 2025 wurde Indonesien ein weiteres Opfer eines gefährlichen Spiels mit der Realität, bei dem die Grenze zwischen real und fiktiv durch Technologien verwischt wird. Diesmal waren es keine Politiker, die Deep Fakes verwendeten, sondern Betrüger. Sie erstellten ein Video, in dem sich der Präsident des Landes persönlich an die Bürgerinnen und Bürger "wendete" und sie aufforderte,... Geld zu überweisen.

In dem gefälschten Video forderte der Präsident die Opfer auf, ihn über WhatsApp zu kontaktieren und zwischen 250.000 und 1 Million Rupien (etwa 15-60 US-Dollar) zu zahlen, angeblich als Verwaltungsgebühr, um finanzielle Unterstützung zu erhalten. Natürlich haben die Opfer keine Hilfe erhalten. Dieser Fall ist zum Symbol einer neuen Ära des Betrugs geworden, in der Telefonanrufe von "Pseudo-Bankern" nicht mehr notwendig sind - ein überzeugendes Video mit dem Gesicht eines Staatsoberhaupts reicht aus.

Interessanterweise hatte der indonesische Präsident selbst ein Jahr zuvor die Macht der visuellen Manipulation aktiv genutzt, allerdings in seiner eigenen politischen Kampagne. In der Opposition war er als "blutiger General" bekannt, weil er beschuldigt wurde, Aktivisten getötet zu haben, und er hatte ein negatives Image bei der älteren Generation und bei Menschenrechtsaktivisten.

Sein Team fand jedoch eine Lösung: Es schuf ein neues visuelles Bild - eineт niedlichen, lächelnden "Avataren", der speziell auf das jugendliche Publikum der sozialen Netzwerke zugeschnitten war. Dank der richtigen Zielgruppenansprache und der Verwendung heller, freundlicher Bilder verwandelte die Kampagne einen harten Militärangehörigen in einen "Freund der Jugendlichen". Das Ergebnis ließ nicht lange auf sich warten - der Präsident gewann die Unterstützung einer Generation, die sich seiner kontroversen Vergangenheit nicht bewusst war.

Indonesien hat bei der Nutzung moderner Technologien beide Seiten der Medaille gezeigt:

  • Einerseits hat das politische Rebranding durch ein von der KI generiertes Bild dazu beigetragen, Wahlen zu gewinnen, indem der Ruf eines Kandidaten "bereinigt" wurde.

  • Andererseits hat sich das gleiche Vertrauen in visuelle Inhalte in einen massiven Betrug verwandelt, als die Bürger dem "Präsidenten" aus Deep-Fake-Videos freiwillig Geld zukommen ließen.

In einem Land, das sich rasch digitalisiert, aber noch keine Fähigkeiten zum kritischen Umgang mit den Medien entwickelt hat, werden solche Fälle zu einer gefährlichen Norm.

Künstliche Intelligenz und Wahlen: die Zukunft, die bereits begonnen hat

Die Wahlen in der ganzen Welt im Jahr 2024 wurden zu einem noch nie dagewesenen Testfeld für künstliche Intelligenz. Von Indien bis Japan, von Pakistan bis Indonesien hat die KI politische Kampagnen, die Art der Kommunikation mit den Wählern und die Instrumente zur Manipulation der öffentlichen Meinung aktiv verändert.

Dieser Überblick deckt nur einen kleinen Teil der weltweiten Fälle ab, aber selbst diese erlauben es uns, Schlüsselbereiche zu identifizieren, in denen künstliche Intelligenz den Ansatz für Wahlprozesse bereits radikal verändert hat.

Die wichtigsten Trends beim Einsatz von KI bei Wahlen:

  1. Personalisierte Anrufe und Nachrichten.

    KI hat es Politikern ermöglicht, Millionen von Wählern in einem "persönlichen Dialog" zu erreichen. Automatisierte Anrufe, Sprachnachrichten und Kandidaten-Avatare sind zur Norm geworden. Das Beispiel Indiens hat gezeigt, wie wirksam solche Instrumente bei der Mobilisierung der Wählerschaft in mehrsprachigen Gesellschaften mit geringer traditioneller politischer Beteiligung sind.

  2. Deep Fakes: eine politische Waffe und ein Instrument der Diskreditierung.

    Von virtuellen Reden inhaftierter Staatsoberhäupter in Pakistan bis hin zu sexualisierten Angriffen auf Politikerinnen - KI-generierte Videos und Bilder sind zu einem vielseitigen Einflussinstrument geworden. Besonders besorgniserregend ist der Trend, Deep Fakes zur Rufschädigung einzusetzen, wie es in patriarchalischen Gesellschaften mit geringer Medienkompetenz der Fall ist.

  3. Verbreitung über Influencer-Netzwerke.

In den Vereinigten Staaten und anderen Ländern werden Fake News und manipulative Inhalte zunehmend durch Blogger und loyale Influencer verbreitet. Dies führt zu einer Situation, in der die Kandidaten förmlich "außen vor" sind und Desinformationen unkontrolliert verbreitet werden, wobei das Vertrauen des Publikums in bekannte Gesichter in den sozialen Medien ausgenutzt wird.

Künstliche Intelligenz ist nicht mehr nur eine technologische Neuheit im Wahlkampf - sie hat sich zu einer vollwertigen Triebkraft entwickelt. Von der Erstellung von Kandidaten-Avataren bis hin zur massenhaften Verbreitung von Deep Fakes - neue Tools verändern bereits die Art und Weise, wie wir wählen, wen wir wählen und wie wir Politik verstehen.

Die Zukunft der Demokratie hängt davon ab, ob die Gesellschaften in der Lage sind, das Ausmaß der Herausforderungen rechtzeitig zu erkennen und ein Gleichgewicht zwischen technologischem Fortschritt und dem Schutz der Wahrheit zu finden. Denn wo die KI außer Kontrolle gerät, sind Wahlen keine Wahl mehr.

Der Autor des Artikels:
Iryna Mischtschenko
Teilen:FacebookXingTelegram
Kopiert!
Wichtig: Alle auf dem Portal veröffentlichten Materialien werden einer entsprechenden Prüfung unterzogen. In einigen Fällen kann jedoch die Meinung der Redaktion von den Ansichten des Blogautors im Abschnitt "Gedanken freier Menschen" abweichen. Die Informations- und Analysegemeinschaft Resurgam übernimmt keine Verantwortung für den Inhalt der Blogs, bemüht sich jedoch, verschiedene interessante Perspektiven zu veröffentlichen.