ResurgamINTERNATIONAL
INFORMATION ET ANALYSE
COMMUNAUTÉ
Rechercher
Menu
27 avr. 2025 | 12 MIN.
Partager:FacebookXingTelegram

L'impact de l'intelligence artificielle sur les élections : l'influence de la technologie sur la démocratie en 2024

alt

Iryna Mishchenko

Фото: Shutterstock

D’après le Global Risks Report 2024, les campagnes de désinformation et de manipulation représentent désormais la principale menace mondiale à court terme. Sur le long terme, la désinformation demeure également un enjeu majeur, se classant au cinquième rang des risques mondiaux pour la prochaine décennie.

Photo: World Economic Forum

Au début de l'année 2024, le Forum économique mondial a publié un rapport évaluant le niveau de risque de désinformation prévu dans différents pays - de l'Inde, où la désinformation a été reconnue comme la menace numéro un, aux États-Unis et à l'Europe, où elle figurait parmi les dix risques les plus préoccupants.

Photo: World Economic Forum

En 2024, à la lumière des événements de l’année, il est clair que ces prévisions se sont avérées exactes. Des élections ont eu lieu dans plus de 60 pays, marquant un record pour la démocratie. Toutefois, cette année a également été un record pour la désinformation.

Des États-Unis à l'Indonésie, des candidats, leurs équipes de campagne, et même des partisans ont recouru à l'intelligence artificielle pour influencer les électeurs, manipuler les émotions, propager des fausses informations ou... nier la réalité.

Dans cet article, nous avons compilé les exemples les plus marquants de la façon dont l'intelligence artificielle a influencé (positivement ou négativement) la campagne des candidats dans leur lutte pour le pouvoir à travers le monde.

Nous aborderons les cas des États-Unis, de l'Inde, du Japon, de l'Indonésie et du Pakistan.

L'illusion du soutien : comment l'intelligence artificielle façonne l'image des candidats aux yeux des électeurs

En août 2024, la bataille n’a pas seulement concerné les voix des électeurs, mais aussi... la réalité elle-même. À Détroit, plus de 15 000 personnes s’étaient rassemblées pour soutenir la vice-présidente Kamala Harris et son colistier, Tim Walz. Les photos et vidéos de l'événement ont envahi les médias. Pourtant, Donald Trump a affirmé que cette foule n'était qu'une fiction créée par l'intelligence artificielle. Sans preuve, et sans démenti après la révélation.

Scène du rassemblement de K. Harris et T. Walz à Detroit le 7 août. Photo from open sources

Illustration du post de D. Trump. Photo from open sources

Il s'agit là d'un exemple typique de ce que l'on appelle le « dividende du menteur » : lorsque des technologies telles que les « faux » ou l'IA générative deviennent des outils pour contester la vérité. Le terme « dividende du menteur » a été introduit pour la première fois dans une étude de 2018. Il désigne une situation où des politiciens et des figures publiques exploitent la méfiance croissante envers les contenus numériques pour rejeter des informations véridiques. Lorsqu'une vidéo ou un enregistrement audio les met en lumière pour corruption, mensonges ou crimes, il leur suffit de prétendre qu'il s'agissait d'une imitation générée par l'intelligence artificielle. Dans une société saturée de faux, de doutes et de bruit informationnel, beaucoup sont prêts à y croire.

Une étude réalisée aux États-Unis, impliquant 15 000 personnes, a révélé que les hommes politiques affirmant que la vérité est « fausse » bénéficient d’un soutien plus important que ceux qui restent silencieux ou s'excusent.

Lors des élections de 2024, les tactiques de désinformation ont évolué : alors qu’en 2016, la principale menace venait d’acteurs extérieurs, cette fois-ci, ce sont les électeurs américains eux-mêmes qui ont créé et diffusé des faux. Des blogueurs conservateurs ont activement utilisé l'IA pour publier des images de Donald Trump entouré d’électeurs noirs, donnant ainsi l'illusion d'un soutien massif au sein de cette communauté, un électorat clé qui avait contribué à la victoire de Joe Biden en 2020.

L'image, générée et partagée par l'animateur de radio Mark Kaye et son équipe à l'aide de l'IA, fait partie des dizaines de fausses images montrant des partisans noirs de Donald Trump. AI-Generated image

Un exemple marquant est une photo de Donald Trump avec un groupe d’électeurs noirs sous un porche. À l’origine, il s’agissait d’un message satirique, mais la donne a changé lorsqu’un utilisateur de X, surnommé Shaggy, a ajouté une légende prétendant que Trump avait interrompu son cortège pour rencontrer ces personnes en personne. Le résultat a été plus de 1,3 million de vues.

L'image a été largement partagée sur les réseaux sociaux, accompagnée de la légende selon laquelle M. Trump aurait interrompu son cortège pour prendre une photo avec ces hommes. AI-Generated image

Ce n'est qu'un exemple parmi d'autres illustrant le fonctionnement du vaste réseau d'influenceurs de Trump. Bien qu'ils n'aient pas de statut officiel, leurs messages s'insèrent parfaitement dans le cadre d'une information favorable au candidat. Grâce à ce modèle décentralisé de désinformation, chaque fake news est perçue comme une « opinion populaire » plutôt que comme une campagne orchestrée, ce qui complique encore la lutte contre la manipulation.

Malgré les efforts des réseaux sociaux pour signaler les images générées artificiellement et le travail des vérificateurs de faits, la propagation de faux contenus continue d'influencer l'opinion publique.

« Même si vous savez que ce n’est pas vrai, la répétition incessante de fausses informations exagérant le soutien à un candidat particulier peut laisser une empreinte dans l’esprit », a déclaré Peter Adams, vice-président principal de la recherche au News Literacy Project.

Trump et son réseau d'influenceurs dévoués ont activement utilisé du contenu falsifié pendant la campagne électorale. Un exemple en est la diffusion d'une image de Taylor Swift prétendument en soutien à Trump, alors que la chanteuse avait clairement exprimé son soutien à Kamala Harris.

Illustration des fake news sur le prétendu soutien de Taylor Swift à Trump

Une autre image générée par l'IA montre M. Trump au cœur des inondations causées par l'ouragan, à la veille de l'élection, marchant aux côtés des secouristes.

AI-Generated image

Une autre photo le montrait en train de remettre des chèques de 1 300 dollars à des victimes. Toutes ces histoires n'avaient aucun lien avec la réalité.

AI-Generated image

Ce ne sont là que quelques exemples d'une vaste campagne durant laquelle un réseau d'influenceurs proches de Trump a largement diffusé des faux générés par l'IA pour le soutenir. Les personnes qui parcourent leur fil d'actualité ne remettent que rarement en question l'authenticité de ce qu'elles voient — la plupart ne remarquent même pas que c'est faux. Pourtant, c'est la fréquence et le volume de ce type de contenu qui façonnent l'image d'un candidat dans l'esprit des gens, qu'il soit vrai ou non.

Quand même les politiciens décédés parlent de l'autre camp : comment l'IA a transformé les élections en Inde

Les élections générales de 2024 en Inde n'étaient pas seulement les plus vastes au monde en termes d'électeurs — près d'un milliard de citoyens — mais elles sont également devenues un exemple frappant de la manière dont l'intelligence artificielle peut redéfinir la communication politique.

Dans un pays où le taux d’alphabétisation est de seulement 77,7 % et où plus de 22 % des citoyens rencontrent des difficultés à lire et à écrire, les méthodes traditionnelles de campagne se sont avérées insuffisantes. Les partis politiques, y compris le BJP au pouvoir, ont misé sur l’innovation : appels vocaux, messages audio, vidéos personnalisées, affichage numérique massif et même la résurrection virtuelle d’anciens dirigeants.

Les appels robotisés personnalisés sont devenus un outil clé. Leur coût était huit fois inférieur à celui des centres d'appel, tout en créant l'illusion d’un contact personnel. Des millions d’Indiens ont ainsi reçu un appel avec la voix de Narendra Modi les incitant à se rendre aux urnes. Pour beaucoup, cela a été un moment marquant – après le vote, certains ont raconté que « le Premier ministre lui-même les avait invités ». Certains électeurs ne se sont même pas rendus compte qu'ils parlaient à un algorithme et non à une personne réelle.

L'IA a permis de franchir la barrière linguistique – dans un pays avec 22 langues officielles et des centaines de dialectes, Modi « parlait » dans des langues qu’il ne maîtrisait pas.

Mais la personnalisation n’a pas été la seule innovation technologique. La campagne électorale s’est transformée en une véritable guerre de manipulations. Les leaders ont été « filmés » dans de fausses vidéos, chanté des chansons de Bollywood, et fait des déclarations fictives. Toutefois, le véritable coup de maître est venu des politiciens « ressuscités ».

Il existe au moins trois exemples où des partis ont utilisé l'IA pour créer des messages de dirigeants décédés depuis longtemps. Une IA virtuelle de Karunanidhi, Illustration figure emblématique du Tamil Nadu, a appelé à soutenir la jeunesse et la démocratie. La voix de Jayalalithaa, décédée en 2016, a exhorté les citoyens à soutenir un candidat spécifique. Dans un autre cas, le fils d’un homme politique a « ressuscité » son père pour mener campagne en sa faveur.

AI-Generated image

Le Japon choisit l’avenir : comment un programmeur avec un avatar d’IA a transformé la communication politique à Tokyo

Dans un pays où tradition et haute technologie se rencontrent, la campagne politique de Takahiro, un programmeur de 33 ans, restera gravée dans les mémoires comme une révolution dans l'interaction entre le gouvernement et les citoyens. En 2024, cet entrepreneur, inspiré par ses propres réflexions de science-fiction sur le rôle de l’intelligence artificielle en politique, a décidé de défier les règles établies. Son objectif était à la fois simple et ambitieux : rompre avec le modèle obsolète de communication unidirectionnelle entre candidats et électeurs.

Sans aucune expérience politique, mais fort de ses compétences en technologie, Takahiro s’est lancé dans la course au poste de gouverneur de Tokyo. En l’espace de quelques mois, il s’est hissé à la cinquième place sur 56 candidats, attirant l’attention non seulement au Japon, mais aussi à l’échelle internationale.

La campagne de Takahiro est rapidement devenue un modèle d’intégration de l’intelligence artificielle dans les processus démocratiques, structurée en trois étapes :

1. De l'écoute à la compréhension.

La première étape de la campagne reposait sur un vaste sondage d’opinion mené à l’aide de l’IA. En analysant des milliers de commentaires publiés sur les réseaux sociaux, l’intelligence artificielle a pu regrouper les réponses par thèmes et dresser un tableau fidèle des préoccupations, besoins et attentes des habitants de Tokyo.

2. Du manifeste au dialogue.

Au lieu de dicter un programme tout fait aux électeurs, Takahiro a ouvert une plateforme de suggestions. Son équipe a recueilli et systématisé les idées des citoyens, transformant leurs opinions en base d'une politique.

3. L'intelligence artificielle en contact.

Le moment fort a été l’introduction d’un avatar nommé AI Takahiro. Ce candidat virtuel a interagi en temps réel avec les électeurs, répondant à leurs questions, exposant ses idées, et illustrant une nouvelle forme d’accessibilité politique.

« Pour la première fois, les citoyens ont eu le sentiment non seulement d’être entendus, mais aussi écoutés et réellement pris en considération », a déclaré M. Takahiro lors d’une interview.

Bien qu’il n’ait pas remporté l’élection, on apprenait en février 2025 que le gouverneur actuel de Tokyo — son ancien rival — avait invité Takahiro à collaborer. Ensemble, ils ont lancé un projet qui a transformé le système de collecte d’idées publiques de Takahiro en un outil officiel de gouvernance municipale. Désormais, l’intelligence artificielle aide les autorités à repérer les voix citoyennes qui méritent leur attention, non plus à travers des démarches bureaucratiques, mais grâce à un dialogue numérique en temps réel.

Quand l’intelligence artificielle s’invite en politique : le Pakistan face aux « faux » et aux discours virtuels

En 2024, alors que le Pakistan replonge dans une nouvelle vague d’instabilité politique, ce n’est pas tant le résultat des élections qui attire l’attention internationale, mais bien la manière dont l’opposition a réussi à faire entendre sa voix. Dans un pays où la démocratie flirte souvent avec la répression, et où l’armée exerce une influence omniprésente sur la vie politique, l’intelligence artificielle s’est soudain imposée comme un instrument inédit de résistance.

Condamné à dix ans de prison pour corruption et écarté de la course électorale, l’ancien Premier ministre Imran Khan a pourtant réussi à s’inviter au cœur de la campagne. Depuis sa cellule, son équipe a orchestré la diffusion de discours où sa voix et son image, recréées grâce à l’intelligence artificielle, ont pris le relais. À partir de simples notes transmises depuis la prison, des algorithmes ont généré des allocutions percutantes, immédiatement relayées sur les plateformes numériques.

AI-Generated image

Lorsque le décompte des voix s’est achevé le 8 février et que les résultats ont révélé que les candidats indépendants soutenus par le Mouvement du Pakistan pour la justice (PTI) de M. Khan avaient remporté le plus grand nombre de sièges au parlement, c’est la voix virtuelle d’Imran Khan qui a proclamé la victoire. Ce fut l’apogée symbolique d’une campagne où un homme politique, physiquement coupé de la société, a su continuer à galvaniser ses partisans grâce à la technologie.

Cependant, la réalité politique du Pakistan s’est révélée bien plus complexe que l’arithmétique des résultats électoraux. En raison de l’interdiction frappant le PTI, les candidats ont dû se présenter en tant qu’indépendants. Une fois les élections terminées, ces derniers ont rejoint le parti Sunni Ittehad Council (SIC), ce qui leur a permis de constituer la plus grande faction à l’Assemblée nationale.

Aucune force politique n’a obtenu la majorité absolue. Le pouvoir est ainsi retombé entre les mains d'acteurs bien connus : la Ligue musulmane du Pakistan (Nawaz) (PML-N), dirigée par Shahbaz Sharif, a formé une coalition avec le Parti du peuple pakistanais (PPP) et d’autres alliés. Sharif, ancien Premier ministre, est ainsi revenu à la tête du pays.

Cependant, la réalité pakistanaise a aussi révélé le côté sombre des nouvelles technologies. Dans un pays où les normes patriarcales restent profondément ancrées, les "faux" sexualisés sont devenus une arme redoutable contre les femmes en politique.

L’une des dirigeantes de l’opposition a été victime d’une campagne de discrédit, avec des vidéos intimes falsifiées dans le but de ruiner sa réputation. Dans un contexte où l’« honneur » est une valeur primordiale et où les crimes d’honneur sont légion, ces manipulations ne constituent pas seulement un levier politique, mais représentent également une menace réelle pour la vie de ceux qui en sont victimes.

Le Pakistan connaît une croissance rapide de l'accès à Internet, mais cette avancée numérique se heurte à un faible niveau d'éducation aux médias. Pour des millions de nouveaux utilisateurs, tout ce qui apparaît sur l'écran d'un smartphone est perçu comme la vérité. Dans ce contexte, les « faux» exercent une influence particulière : la société n’a pas encore appris à remettre en question ce qu’elle voit.

Indonésie : du « général sanglant » à l’icône mignonne de la génération TikTok

En février 2025, l’Indonésie a une nouvelle fois été prise dans un jeu risqué où la frontière entre réalité et fiction est floue, alimentée par la technologie. Cette fois-ci, ce ne sont pas des hommes politiques qui ont recours au deepfake, mais des fraudeurs. Ils ont mis en ligne une vidéo truquée dans laquelle le président du pays « s’adresse » directement aux citoyens, leur demandant de... transférer de l’argent.

Dans cette vidéo entièrement fabriquée, le président demande à la victime de le contacter via WhatsApp et de verser entre 250 000 et 1 million de roupies (soit environ 15 à 60 dollars), prétendument pour couvrir des frais administratifs afin de bénéficier d’une aide financière. Bien sûr, aucune aide n’a été fournie. Cette affaire est devenue le symbole d’une nouvelle ère de fraude, où les appels téléphoniques de « pseudo-banquiers » ne sont plus nécessaires : une vidéo convaincante avec le visage d’un chef d'État suffit.

Il est intéressant de noter que le président indonésien lui-même avait utilisé le pouvoir de la manipulation visuelle un an plus tôt, mais dans le cadre de sa propre campagne politique. Surnommé « le général sanglant » par l’opposition en raison des accusations d’assassinats de militants, il entretenait une image négative auprès de l’ancienne génération et des défenseurs des droits de l’homme.

Cependant, son équipe a trouvé une solution : elle a créé une nouvelle image visuelle — un « chiot » mignon et souriant — spécialement conçue pour séduire le public jeune des réseaux sociaux. Grâce à un ciblage précis et à l'utilisation de visuels légers et sympathiques, la campagne a transformé un militaire endurci en « ami des jeunes ». Le résultat ne s’est pas fait attendre : le président a remporté la victoire, gagnant ainsi le soutien d’une génération ignorante de son passé controversé.

  • L’Indonésie a montré les deux faces de la médaille dans l’utilisation des technologies modernes :

    D’une part, le rebranding politique via une image générée par IA a permis de gagner les élections en « nettoyant » la réputation du candidat.

  • D’autre part, cette même confiance dans le contenu visuel a donné lieu à une fraude massive, lorsque des citoyens ont envoyé de l’argent au « président » après avoir été dupés par une fausse vidéo.

Dans un pays en pleine numérisation, mais qui n’a pas encore développé un esprit critique face aux médias, de tels incidents risquent de devenir une norme dangereuse.

Intelligence artificielle et élections : l’avenir en marche

Les élections mondiales de 2024 ont servi de terrain d'expérimentation sans précédent pour l'intelligence artificielle. De l'Inde au Japon, du Pakistan à l'Indonésie, l'IA a profondément transformé les campagnes politiques, les modes de communication avec les électeurs et les stratégies de manipulation de l'opinion publique.

Cette étude se concentre sur une petite sélection de cas mondiaux, mais ces exemples permettent déjà de dégager les principales tendances où l'IA a radicalement modifié l'approche des processus électoraux.

Voici les principales tendances de l'utilisation de l'IA dans les élections :

1. Appels et messages personnalisés

L’IA a permis aux hommes politiques de nouer un « dialogue personnel » avec des millions d’électeurs. Les appels automatisés, les messages vocaux et les avatars de candidats sont désormais devenus courants. L'exemple de l'Inde illustre l'efficacité de ces outils pour mobiliser l’électorat dans des sociétés multilingues où la participation politique traditionnelle reste faible.

2. Les « faux » : une arme politique et un outil de discrédit

Les discours virtuels de dirigeants emprisonnés au Pakistan, ainsi que les attaques sexualisées contre des femmes politiques, illustrent l'utilisation croissante des vidéos et des images générées par l'IA comme un outil d'influence puissant. Cette tendance à exploiter des individus vulnérables pour détruire des réputations, notamment dans les sociétés patriarcales où le contrôle des médias est limité, soulève de vives inquiétudes.

3. Distribution par l'intermédiaire de réseaux d'influenceurs

Aux États-Unis et dans d'autres pays, les fake news et les contenus manipulateurs sont de plus en plus relayés par des blogueurs et des influenceurs loyaux. Cela engendre une situation où certains candidats sont officiellement écartés, tandis que la désinformation se diffuse de façon incontrôlée, exploitant la confiance du public envers des visages familiers sur les réseaux sociaux.

L'intelligence artificielle n'est plus une simple innovation technologique dans les campagnes électorales, elle est désormais un moteur clé. De la création d'avatars de candidats à la diffusion massive de "faux", de nouveaux outils transforment déjà notre manière de voter, de choisir nos élus et de comprendre la politique.

L'avenir de la démocratie repose sur la capacité des sociétés à anticiper l'ampleur de ces défis et à trouver un juste équilibre entre le progrès technologique et la préservation de la vérité. Car lorsque l'IA échappe à tout contrôle, les élections ne sont plus un véritable choix.

L'auteur de l'article:
Iryna Mishchenko
Partager:FacebookXingTelegram
Important : Tous les contenus publiés sur le portail font l’objet d’une vérification appropriée. Cependant, dans certains cas, l’opinion de la rédaction peut différer de celle de l’auteur du blog dans la section "Pensées des gens libres." La communauté d’analyse et d’information Resurgam n’est pas responsable du contenu des blogs, mais s’efforce de publier des points de vue variés et intéressants.