ResurgamМІЖНАРОДНА
ІНФОРМАЦІЙНА ТА АНАЛІТИЧНА
СПІЛЬНОТА
Пошук
Menu
27 квіт. 2025 | 12 ХВ.
Поділитись:FacebookXingTelegram
Скопійовано!

Штучний інтелект на виборах: як у 2024 році технології впливали на демократію

alt

Міщенко Ірина

Фото: Shutterstock

Згідно з Global Risks Report 2024, дезінформація та маніпулятивні кампанії стали найбільшою глобальною загрозою у короткостроковій перспективі. Водночас у довгостроковому прогнозі, розрахованому на наступне десятиліття, дезінформація залишається серед ключових викликів, посівши п’яте місце у рейтингу глобальних ризиків. 

Photo: World Economic Forum

На початку 2024 року World Economic Forum опублікував звіт, що відображав прогнозований рівень ризику дезінформації в різних країнах — від Індії, де дезінформацію визнали загрозою №1, до США та Європи, де вона входила до десятки найгостріших ризиків.

Photo: World Economic Forum

Тепер, озираючись на події 2024 року, ми бачимо, наскільки точними були ці прогнози. Вибори відбулися у понад 60 країнах світу — це був рекордний рік для демократії. Але водночас — рекордний рік і для дезінформації.

Від США до Індонезії — кандидати, їхні штаби та навіть звичайні прихильники використовували ШІ, щоб впливати на виборців, маніпулювати емоціями, поширювати фейки або ж... заперечувати правду.

У цій статті ми зібрали найяскравіші приклади того, як у різних країнах світу штучний інтелект допомагав (або шкодив) кандидатам у гонитві за владою.

Ми поговоримо про США, Індію, Японію,Індонезію, Пакистан.

Ілюзія підтримки: як штучний інтелект формує образ кандидата у свідомості виборців

У серпні 2024 році запекла боротьба точилася не лише за голоси виборців, а й за... реальність. У Детройті понад 15 000 людей вийшли підтримати віцепрезидентку Камалу Гарріс та її напарника Тіма Вальца. Фото і відео з мітингу заполонили медіа. Але Дональд Трамп заявив: натовп — це вигадка, згенерована штучним інтелектом. Без жодних доказів, без спростувань після викриття.

Ілюстрація Сцена з мітингу К. Гарріс і Т. Вальца в Детройті 7 серпня. Photo from open sources

Ілюстрація допису Д.Трампа. Photo from open sources

Це класичний приклад так званого «дивіденду брехуна» — коли сам факт існування технологій, як-от діпфейки чи генеративний ШІ, стає інструментом для заперечення правди. Термін «дивіденд брехуна» вперше був докладно описаний у дослідженні у 2018 році. Ситуація, коли політики та публічні особи використовують зростаючу недовіру до цифрового контенту для заперечення правдивої інформації. Якщо відео чи аудіо викриває їх у корупції, брехні або злочинах — достатньо сказати, що це штучний інтелект імітував голос чи обличчя. Суспільство, перевантажене фейками, сумнівами й інформаційним шумом, охоче вірить у це. 

В США провели дослідження за участі 15 000 людей. Результати показали: політики, які оголошують правду “фейком”, отримують більше підтримки, ніж ті, хто просто мовчить або вибачається.

Під час виборів 2024 року дезінформаційна тактика в США зазнала трансформації: якщо у 2016-му головною загрозою були зовнішні гравці, то цього разу фейки створювали й поширювали самі американські виборці. Консервативні блогери активно використовували ШІ, публікуючи зображення Дональда Трампа в оточенні темношкірих виборців, формуючи ілюзію його масової підтримки серед цієї спільноти — ключового електорату, який забезпечив перемогу Джо Байдену у 2020 році.

Зображення, яке створив та розповсюдив  радіоведучий Марк Кей та його командою за допомогою ШІ, є одним із десятків фейків, що зображують темношкірих прихильників Трампа. AI-Generated image

Один із показових прикладів — зображення Трампа, де він з групою темношкірих виборців на ганку. Спочатку це був сатиричний пост, але ситуація змінилася, коли користувач X з ніком Shaggy додав підпис, у якому стверджувалося, що Дональд Трамп зупинив свій кортеж, аби особисто зустрітися з цими людьми. Результат — понад 1,3 мільйона переглядів. 

Зображення широко розповсюджувалося в соцмережах із підписом, що Трамп зупинив свій кортеж, щоб сфотографуватися з цими чоловіками. AI-Generated image

Це лише один із випадків, що демонструє, як працює розгалужена мережа інфлюєнсерів Трампа. Вони не мають офіційного статусу, але їхні повідомлення ідеально вписуються у вигідний для кандидата інформаційний фон. Завдяки такій децентралізованій моделі дезінформації кожен фейк сприймається як «народна думка», а не спланована кампанія, що робить боротьбу з маніпуляціями ще складнішою.

Попри зусилля соцмереж із маркування штучно створених зображень і роботу фактчекерів, хвиля фейкового контенту продовжує формувати громадську думку.

«Навіть якщо ви розумієте, що це неправда, постійне повторення фейкових новин, які перебільшують підтримку певного кандидата, може залишити слід у свідомості», — зазначає Пітер Адамс, старший віцепрезидент з досліджень у News Literacy Project.

Трамп та його мережа лояльних інфлюєнсерів активно використовували фейковий контент під час виборчої кампанії. Серед прикладів — публікація зображення, де Тейлор Свіфт нібито підтримує Трампа, хоча насправді співачка відкрито висловлювалася на користь Камали Гарріс.

Ілюстрація фейку про нібито підтримку Трампа Тейлор Свіфт

Інше ШІ-згенероване зображення показувало Трампа в епіцентрі повені після урагану напередодні виборів — він крокував поруч із рятувальниками:AI-Generated image

А ще одне фото демонструвало, як він начебто роздає постраждалим чеки на 1300 доларів. Усі ці історії не мали нічого спільного з реальністю.AI-Generated image

Це лише кілька прикладів із великої кампанії, де мережа наближених до Трампа інфлюєнсерів масово поширювала ШІ-згенеровані фейки на його підтримку. Люди, гортаючи стрічку, рідко замислюються над достовірністю побаченого — більшість навіть не помічає підробки. Але саме частота та обсяг такого контенту закладають у свідомість певний образ кандидата, незалежно від того, правдивий він чи ні.

Коли політики говорять із того світу: як ШІ змінив вибори в Індії

Загальні вибори в Індії 2024 року стали не лише найбільшими у світі за кількістю виборців — майже 1 мільярд громадян — але й перетворилися на показовий приклад того, як штучний інтелект здатен змінити саму суть політичної комунікації.

В країні, де рівень грамотності становить лише 77,7%, а понад 22% громадян мають складності з читанням та письмом, традиційні методи агітації виявилися недостатніми. Політичні партії, зокрема правляча BJP, зробили ставку на інновації: голосові дзвінки, аудіоповідомлення, персоналізовані відеозвернення, масові діпфейки та навіть "воскресіння" лідерів минулого.

Ключовим інструментом стали роботизовані персоналізовані дзвінки. Вартість таких звернень була у 8 разів дешевшою за роботу кол-центрів, але вони створювали ефект особистого контакту. Мільйони індійців отримали дзвінок із голосом Нарендри Моді, який закликав прийти на дільницю. Для багатьох це стало подією — після голосування люди ділилися, що "сам прем’єр їх запросив". Частина виборців навіть не усвідомила, що спілкувалася з алгоритмом, а не з людиною.

ШІ дозволив долати мовний бар’єр – у країні з 22 офіційними та сотнями діалектів Моді "заговорив" тими діалектами, яких ніколи не знав.

Втім, персоналізація не стала єдиною технологічною іновацією. Виборча кампанія перетворилася на війну діпфейків. Лідери "танцювали" у фейкових відео, співали боллівудські пісні, робили вигадані заяви. Але справжнім ноу-хау стали "воскреслі" політики.

Відомо щонайменше про три випадки, коли партії використовували ШІ, аби створити звернення від давно померлих лідерів. Віртуальний А. І. Карунаніді, культова фігура Таміл Наду, закликав підтримати молодь і демократію. Голос Джаялаліти, яка  померла у 2016-му, звернулась до громадян із проханням підтримати конкретного кандидата. В іншому випадку син політика "оживив" батька для агітації на власну користь.AI-Generated image

Японія обирає майбутнє: як програміст із ШІ-аватаром змінив політичну комунікацію Токіо

У країні, де традиції переплітаються з високими технологіями, політична кампанія 33-річного програміста Такахіро запам’яталася як прорив у взаємодії влади й громадян. У 2024 році цей підприємець, натхненний власними науково-фантастичними роздумами про роль штучного інтелекту в політиці, вирішив кинути виклик усталеним правилам. Його мета була проста й амбітна водночас — зламати застарілу модель односторонньої комунікації між кандидатами та виборцями.

Без політичного досвіду, але зі знанням технологій, Такахіро розпочав свою кампанію за пост губернатора Токіо. І вже за кілька місяців посів п’яте місце серед 56 кандидатів, привернувши увагу не лише японців, а й експертів усього світу.

Кампанія Такахіро стала взірцем того, як можна інтегрувати штучний інтелект у демократичні процеси в три кроки:

  1. Від слухання — до розуміння.


    Першим етапом стало масштабне опитування громадської думки. Через коментарі у соцмережах ШІ аналізував тисячі відгуків, групував їх у тематичні кластери й формував реальну картину запитів та проблем жителів Токіо.

  2. Від маніфесту — до діалогу.


    Замість того, щоб диктувати виборцям готову програму, Такахіро відкрив платформу для пропозицій. Його команда зібрала та систематизувала ідеї громадян, перетворивши їхні думки на основу політичного курсу.

  3. ШІ на зв’язку.


    Кульмінацією став запуск аватара — AI Takahiro. Віртуальний кандидат у режимі реального часу відповідав на запитання виборців, пояснював позиції й демонстрував новий рівень доступності політика.

«Люди вперше відчули, що їх не просто чують — їх слухають і враховують», — зазначив Такахіро в одному з інтерв’ю.

Хоча перемогти він не зміг, уже у лютому 2025 року стало відомо: діючий губернатор Токіо, його колишній опонент, запросив Такахіро до співпраці. Разом вони запустили проєкт, у якому система збору громадських ідей, розроблена Такахіро, стала офіційним інструментом міського управління. Тепер штучний інтелект допомагає владі виявляти голоси громадян, які заслуговують на увагу, — не через бюрократичні процедури, а через живий цифровий діалог.

Штучний інтелект на службі політики: як Пакистан став ареною для діпфейків і віртуальних промов

У 2024 році, коли Пакистан черговий раз занурився у вир політичної нестабільності, увагу світу привернув не стільки результат виборів, скільки спосіб, у який опозиція боролася за свій голос. В країні, де демократія давно межує з репресіями, а військові важелі тиску відчутні на кожному етапі політичного процесу, штучний інтелект несподівано став інструментом опору.

Колишній прем'єр-міністр Імран Хан, ув’язнений на 10 років за звинуваченням у корупції та відсторонений від участі у виборах, знайшов спосіб залишитися присутнім у передвиборчій кампанії — навіть із-за ґрат. Його команда запустила серію звернень, у яких голос і образ Хана були відтворені за допомогою ШІ. Алгоритми перетворювали передані з в’язниці нотатки на промови, які миттєво розліталися цифровими каналами.AI-Generated image

Коли 8 лютого завершився підрахунок голосів, і стало відомо, що незалежні кандидати, пов’язані з партією Хана Пакистанський рух за справедливість (PTI), здобули найбільшу кількість місць у парламенті, саме віртуальний голос Імрана Хана оголосив про перемогу. Це була символічна кульмінація кампанії, де політик, фізично ізольований від суспільства, продовжував надихати своїх прихильників через технології.

Втім, політична реальність Пакистану виявилася складнішою за арифметику виборчих протоколів. Через заборону PTI кандидати були змушені балотуватися як незалежні, а після виборів — приєдналися до партії Sunni Ittehad Council (SIC), що дозволило сформувати найбільшу фракцію в Національній асамблеї.

Але жодна сила не отримала абсолютної більшості. Влада знову повернулася до рук добре знайомих гравців: Пакистанська мусульманська ліга (Наваз) (PML-N), очолювана Шахбазом Шарифом, уклала коаліцію з Пакистанською народною партією (PPP) та іншими союзниками. Шариф, який вже обіймав посаду прем'єр-міністра, повернувся до керівництва країною.

Втім, пакистанська реальність показала й темний бік нових технологій. У країні, де патріархальні норми й досі визначають суспільні рамки, сексуалізовані діпфейки стали потужною зброєю проти жінок у політиці.

Одна з опозиційних лідерок стала жертвою кампанії дискредитації — в мережі з’явилися сфабриковані відео інтимного характеру, покликані зруйнувати її репутацію. В умовах, де поняття "честі" має надзвичайну вагу, а випадки вбивств честі рахуються сотнями щороку, такі фейки стають не лише інструментом політичного тиску, а й реальною загрозою життю. Пакистан переживає стрімкий ріст доступу до інтернету. Проте цей цифровий прорив супроводжується низьким рівнем медіаграмотності. Для мільйонів нових користувачів все, що з’являється на екрані смартфона, сприймається як правда. У такому середовищі діпфейки мають особливу силу впливу — суспільство ще не навчилося сумніватися в побаченому.

Індонезія: Від "кривавого генерала" до милого образу для TikTok покоління

У лютому 2025 року Індонезія стала черговою жертвою небезпечної гри з реальністю, де межа між справжнім і вигаданим стирається завдяки технологіям. Цього разу діпфейк використовували не політики, а шахраї. Вони створили відео, в якому президент країни особисто "звертався" до громадян із проханням... переказати гроші.

У сфабрикованому відео президент просив зв’язатися через WhatsApp і сплатити від 250 000 до 1 мільйона рупій (близько $15–$60) нібито як адміністративний збір для отримання фінансової допомоги. Звісно, жодної допомоги жертви не отримали. Цей випадок став символом нової епохи шахрайства, де вже не потрібні телефонні дзвінки від "псевдо-банкірів" — достатньо переконливого відео з обличчям лідера держави.

Цікаво, що сам президент Індонезії ще роком раніше активно використовував силу візуальних маніпуляцій, але вже у власній політичній кампанії. Відомий серед опозиції як "кривавий генерал" через звинувачення у вбивствах активістів, він мав негативний імідж серед старшого покоління та правозахисників.

Однак його команда знайшла рішення: створили новий візуальний образ — милий, усміхнений "пупс", спеціально адаптований для молодіжної аудиторії соцмереж. Завдяки грамотному таргетингу та використанню легких, дружніх візуалів, кампанія перетворила суворого військового на "друга для молоді". Результат не змусив себе чекати — президент здобув перемогу, заручившись підтримкою покоління, яке навіть не підозрювало про його суперечливе минуле.

  • Індонезія показала одразу дві сторони медалі у використанні сучасних технологій:
    З одного боку, політичний ребрендинг через ШІ-генерований образ допоміг виграти вибори, "очистивши" репутацію кандидата.

  • З іншого — та ж сама довіра до візуального контенту обернулася масовим шахрайством, коли громадяни добровільно пересилали гроші "президенту" з діпфейк-відео.

В країні, яка стрімко цифровізується, але ще не встигла розвинути навички критичного мислення щодо медіа, подібні кейси стають небезпечною нормою.

Штучний інтелект і вибори: майбутнє, яке вже настало

Вибори по всьому світу у 2024 році стали безпрецедентним полігоном для випробування можливостей штучного інтелекту. Від Індії до Японії, від Пакистану до Індонезії — ШІ активно трансформував політичні кампанії, способи комунікації з виборцями та інструменти маніпуляції громадською думкою.

Цей огляд охоплює лише невелику частину глобальних кейсів, але навіть вони дозволяють виокремити ключові напрямки, у яких штучний інтелект вже кардинально змінив підхід до виборчих процесів.

Основні тенденції використання ШІ на виборах:

  1. Персоналізовані дзвінки та повідомлення


     ШІ дозволив політикам звертатися до мільйонів виборців у форматі "особистого діалогу". Автоматизовані дзвінки, голосові повідомлення й аватари кандидатів стали нормою. Приклад Індії показав, наскільки ефективними є такі інструменти для мобілізації електорату в багатомовних суспільствах із низьким рівнем традиційної політичної участі.

  2. Діпфейки: політична зброя та інструмент дискредитації


     Від віртуальних промов ув’язнених лідерів у Пакистані до сексуалізованих атак на жінок-політиків — ШІ-генеровані відео та зображення стали універсальним інструментом впливу. Особливо тривожною є тенденція використання діпфейків для підриву репутації, як це відбувається в патріархальних суспільствах із низькою медіаграмотністю.

  3. Розповсюдження через мережі інфлюенсерів


     У США та інших країнах фейки і маніпулятивний контент дедалі частіше поширюються через блогерів і лояльних інфлюенсерів. Це створює ситуацію, коли кандидати формально "не при справах", а дезінформація шириться неконтрольовано, користуючись довірою аудиторії до знайомих облич у соцмережах.

Штучний інтелект більше не є лише технологічною новинкою у виборчих кампаніях — він став їхнім повноцінним рушієм. Від створення аватарів кандидатів до масового поширення діпфейків — нові інструменти вже змінюють те, як ми голосуємо, кого обираємо і як розуміємо політику. 

Майбутнє демократії залежить від того, чи зможуть суспільства вчасно усвідомити масштаб викликів і знайти баланс між технологічним прогресом і захистом правди. Бо там, де ШІ виходить з-під контролю, вибори перестають бути вибором.

Автор статті:
Міщенко Ірина
Поділитись:FacebookXingTelegram
Скопійовано!
Важливо: Усі матеріали, опубліковані на порталі, проходять відповідну перевірку. Однак в деяких моментах думка редакції може відрізнятися від поглядів автора блогу в розділі "Думки вільних людей". Інформаційно-аналітична спільнота Resurgam не несе відповідальності за зміст блогів, але прагне публікувати різні цікаві погляди.