Штучний інтелект на виборах: як у 2024 році технології впливали на демократію

Міщенко Ірина
Фото: Shutterstock
Photo: World Economic Forum
Photo: World Economic Forum
Від США до Індонезії — кандидати, їхні штаби та навіть звичайні прихильники використовували ШІ, щоб впливати на виборців, маніпулювати емоціями, поширювати фейки або ж... заперечувати правду.
У цій статті ми зібрали найяскравіші приклади того, як у різних країнах світу штучний інтелект допомагав (або шкодив) кандидатам у гонитві за владою.
Ми поговоримо про США, Індію, Японію,Індонезію, Пакистан.
Ілюзія підтримки: як штучний інтелект формує образ кандидата у свідомості виборців
У серпні 2024 році запекла боротьба точилася не лише за голоси виборців, а й за... реальність. У Детройті понад 15 000 людей вийшли підтримати віцепрезидентку Камалу Гарріс та її напарника Тіма Вальца. Фото і відео з мітингу заполонили медіа. Але Дональд Трамп заявив: натовп — це вигадка, згенерована штучним інтелектом. Без жодних доказів, без спростувань після викриття.
Ілюстрація Сцена з мітингу К. Гарріс і Т. Вальца в Детройті 7 серпня. Photo from open sources

В США провели дослідження за участі 15 000 людей. Результати показали: політики, які оголошують правду “фейком”, отримують більше підтримки, ніж ті, хто просто мовчить або вибачається.
Під час виборів 2024 року дезінформаційна тактика в США зазнала трансформації: якщо у 2016-му головною загрозою були зовнішні гравці, то цього разу фейки створювали й поширювали самі американські виборці. Консервативні блогери активно використовували ШІ, публікуючи зображення Дональда Трампа в оточенні темношкірих виборців, формуючи ілюзію його масової підтримки серед цієї спільноти — ключового електорату, який забезпечив перемогу Джо Байдену у 2020 році.
Зображення, яке створив та розповсюдив радіоведучий Марк Кей та його командою за допомогою ШІ, є одним із десятків фейків, що зображують темношкірих прихильників Трампа. AI-Generated image
Зображення широко розповсюджувалося в соцмережах із підписом, що Трамп зупинив свій кортеж, щоб сфотографуватися з цими чоловіками. AI-Generated image
Попри зусилля соцмереж із маркування штучно створених зображень і роботу фактчекерів, хвиля фейкового контенту продовжує формувати громадську думку.
«Навіть якщо ви розумієте, що це неправда, постійне повторення фейкових новин, які перебільшують підтримку певного кандидата, може залишити слід у свідомості», — зазначає Пітер Адамс, старший віцепрезидент з досліджень у News Literacy Project.
Трамп та його мережа лояльних інфлюєнсерів активно використовували фейковий контент під час виборчої кампанії. Серед прикладів — публікація зображення, де Тейлор Свіфт нібито підтримує Трампа, хоча насправді співачка відкрито висловлювалася на користь Камали Гарріс.
Ілюстрація фейку про нібито підтримку Трампа Тейлор Свіфт


Коли політики говорять із того світу: як ШІ змінив вибори в Індії
Загальні вибори в Індії 2024 року стали не лише найбільшими у світі за кількістю виборців — майже 1 мільярд громадян — але й перетворилися на показовий приклад того, як штучний інтелект здатен змінити саму суть політичної комунікації.
В країні, де рівень грамотності становить лише 77,7%, а понад 22% громадян мають складності з читанням та письмом, традиційні методи агітації виявилися недостатніми. Політичні партії, зокрема правляча BJP, зробили ставку на інновації: голосові дзвінки, аудіоповідомлення, персоналізовані відеозвернення, масові діпфейки та навіть "воскресіння" лідерів минулого.
Ключовим інструментом стали роботизовані персоналізовані дзвінки. Вартість таких звернень була у 8 разів дешевшою за роботу кол-центрів, але вони створювали ефект особистого контакту. Мільйони індійців отримали дзвінок із голосом Нарендри Моді, який закликав прийти на дільницю. Для багатьох це стало подією — після голосування люди ділилися, що "сам прем’єр їх запросив". Частина виборців навіть не усвідомила, що спілкувалася з алгоритмом, а не з людиною.
ШІ дозволив долати мовний бар’єр – у країні з 22 офіційними та сотнями діалектів Моді "заговорив" тими діалектами, яких ніколи не знав.
Втім, персоналізація не стала єдиною технологічною іновацією. Виборча кампанія перетворилася на війну діпфейків. Лідери "танцювали" у фейкових відео, співали боллівудські пісні, робили вигадані заяви. Але справжнім ноу-хау стали "воскреслі" політики.
Відомо щонайменше про три випадки, коли партії використовували ШІ, аби створити звернення від давно померлих лідерів. Віртуальний А. І. Карунаніді, культова фігура Таміл Наду, закликав підтримати молодь і демократію. Голос Джаялаліти, яка померла у 2016-му, звернулась до громадян із проханням підтримати конкретного кандидата. В іншому випадку син політика "оживив" батька для агітації на власну користь.AI-Generated image
Японія обирає майбутнє: як програміст із ШІ-аватаром змінив політичну комунікацію Токіо
У країні, де традиції переплітаються з високими технологіями, політична кампанія 33-річного програміста Такахіро запам’яталася як прорив у взаємодії влади й громадян. У 2024 році цей підприємець, натхненний власними науково-фантастичними роздумами про роль штучного інтелекту в політиці, вирішив кинути виклик усталеним правилам. Його мета була проста й амбітна водночас — зламати застарілу модель односторонньої комунікації між кандидатами та виборцями.
Без політичного досвіду, але зі знанням технологій, Такахіро розпочав свою кампанію за пост губернатора Токіо. І вже за кілька місяців посів п’яте місце серед 56 кандидатів, привернувши увагу не лише японців, а й експертів усього світу.
Кампанія Такахіро стала взірцем того, як можна інтегрувати штучний інтелект у демократичні процеси в три кроки:
Від слухання — до розуміння.
Першим етапом стало масштабне опитування громадської думки. Через коментарі у соцмережах ШІ аналізував тисячі відгуків, групував їх у тематичні кластери й формував реальну картину запитів та проблем жителів Токіо.Від маніфесту — до діалогу.
Замість того, щоб диктувати виборцям готову програму, Такахіро відкрив платформу для пропозицій. Його команда зібрала та систематизувала ідеї громадян, перетворивши їхні думки на основу політичного курсу.ШІ на зв’язку.
Кульмінацією став запуск аватара — AI Takahiro. Віртуальний кандидат у режимі реального часу відповідав на запитання виборців, пояснював позиції й демонстрував новий рівень доступності політика.
«Люди вперше відчули, що їх не просто чують — їх слухають і враховують», — зазначив Такахіро в одному з інтерв’ю.
Хоча перемогти він не зміг, уже у лютому 2025 року стало відомо: діючий губернатор Токіо, його колишній опонент, запросив Такахіро до співпраці. Разом вони запустили проєкт, у якому система збору громадських ідей, розроблена Такахіро, стала офіційним інструментом міського управління. Тепер штучний інтелект допомагає владі виявляти голоси громадян, які заслуговують на увагу, — не через бюрократичні процедури, а через живий цифровий діалог.
Штучний інтелект на службі політики: як Пакистан став ареною для діпфейків і віртуальних промов
У 2024 році, коли Пакистан черговий раз занурився у вир політичної нестабільності, увагу світу привернув не стільки результат виборів, скільки спосіб, у який опозиція боролася за свій голос. В країні, де демократія давно межує з репресіями, а військові важелі тиску відчутні на кожному етапі політичного процесу, штучний інтелект несподівано став інструментом опору.
Колишній прем'єр-міністр Імран Хан, ув’язнений на 10 років за звинуваченням у корупції та відсторонений від участі у виборах, знайшов спосіб залишитися присутнім у передвиборчій кампанії — навіть із-за ґрат. Його команда запустила серію звернень, у яких голос і образ Хана були відтворені за допомогою ШІ. Алгоритми перетворювали передані з в’язниці нотатки на промови, які миттєво розліталися цифровими каналами.AI-Generated image
Втім, політична реальність Пакистану виявилася складнішою за арифметику виборчих протоколів. Через заборону PTI кандидати були змушені балотуватися як незалежні, а після виборів — приєдналися до партії Sunni Ittehad Council (SIC), що дозволило сформувати найбільшу фракцію в Національній асамблеї.
Але жодна сила не отримала абсолютної більшості. Влада знову повернулася до рук добре знайомих гравців: Пакистанська мусульманська ліга (Наваз) (PML-N), очолювана Шахбазом Шарифом, уклала коаліцію з Пакистанською народною партією (PPP) та іншими союзниками. Шариф, який вже обіймав посаду прем'єр-міністра, повернувся до керівництва країною.
Втім, пакистанська реальність показала й темний бік нових технологій. У країні, де патріархальні норми й досі визначають суспільні рамки, сексуалізовані діпфейки стали потужною зброєю проти жінок у політиці.
Одна з опозиційних лідерок стала жертвою кампанії дискредитації — в мережі з’явилися сфабриковані відео інтимного характеру, покликані зруйнувати її репутацію. В умовах, де поняття "честі" має надзвичайну вагу, а випадки вбивств честі рахуються сотнями щороку, такі фейки стають не лише інструментом політичного тиску, а й реальною загрозою життю. Пакистан переживає стрімкий ріст доступу до інтернету. Проте цей цифровий прорив супроводжується низьким рівнем медіаграмотності. Для мільйонів нових користувачів все, що з’являється на екрані смартфона, сприймається як правда. У такому середовищі діпфейки мають особливу силу впливу — суспільство ще не навчилося сумніватися в побаченому.
Індонезія: Від "кривавого генерала" до милого образу для TikTok покоління
У лютому 2025 року Індонезія стала черговою жертвою небезпечної гри з реальністю, де межа між справжнім і вигаданим стирається завдяки технологіям. Цього разу діпфейк використовували не політики, а шахраї. Вони створили відео, в якому президент країни особисто "звертався" до громадян із проханням... переказати гроші.
У сфабрикованому відео президент просив зв’язатися через WhatsApp і сплатити від 250 000 до 1 мільйона рупій (близько $15–$60) нібито як адміністративний збір для отримання фінансової допомоги. Звісно, жодної допомоги жертви не отримали. Цей випадок став символом нової епохи шахрайства, де вже не потрібні телефонні дзвінки від "псевдо-банкірів" — достатньо переконливого відео з обличчям лідера держави.
Цікаво, що сам президент Індонезії ще роком раніше активно використовував силу візуальних маніпуляцій, але вже у власній політичній кампанії. Відомий серед опозиції як "кривавий генерал" через звинувачення у вбивствах активістів, він мав негативний імідж серед старшого покоління та правозахисників.
Однак його команда знайшла рішення: створили новий візуальний образ — милий, усміхнений "пупс", спеціально адаптований для молодіжної аудиторії соцмереж. Завдяки грамотному таргетингу та використанню легких, дружніх візуалів, кампанія перетворила суворого військового на "друга для молоді". Результат не змусив себе чекати — президент здобув перемогу, заручившись підтримкою покоління, яке навіть не підозрювало про його суперечливе минуле.
Індонезія показала одразу дві сторони медалі у використанні сучасних технологій:
З одного боку, політичний ребрендинг через ШІ-генерований образ допоміг виграти вибори, "очистивши" репутацію кандидата.З іншого — та ж сама довіра до візуального контенту обернулася масовим шахрайством, коли громадяни добровільно пересилали гроші "президенту" з діпфейк-відео.
В країні, яка стрімко цифровізується, але ще не встигла розвинути навички критичного мислення щодо медіа, подібні кейси стають небезпечною нормою.
Штучний інтелект і вибори: майбутнє, яке вже настало
Вибори по всьому світу у 2024 році стали безпрецедентним полігоном для випробування можливостей штучного інтелекту. Від Індії до Японії, від Пакистану до Індонезії — ШІ активно трансформував політичні кампанії, способи комунікації з виборцями та інструменти маніпуляції громадською думкою.
Цей огляд охоплює лише невелику частину глобальних кейсів, але навіть вони дозволяють виокремити ключові напрямки, у яких штучний інтелект вже кардинально змінив підхід до виборчих процесів.
Основні тенденції використання ШІ на виборах:
Персоналізовані дзвінки та повідомлення
ШІ дозволив політикам звертатися до мільйонів виборців у форматі "особистого діалогу". Автоматизовані дзвінки, голосові повідомлення й аватари кандидатів стали нормою. Приклад Індії показав, наскільки ефективними є такі інструменти для мобілізації електорату в багатомовних суспільствах із низьким рівнем традиційної політичної участі.Діпфейки: політична зброя та інструмент дискредитації
Від віртуальних промов ув’язнених лідерів у Пакистані до сексуалізованих атак на жінок-політиків — ШІ-генеровані відео та зображення стали універсальним інструментом впливу. Особливо тривожною є тенденція використання діпфейків для підриву репутації, як це відбувається в патріархальних суспільствах із низькою медіаграмотністю.Розповсюдження через мережі інфлюенсерів
У США та інших країнах фейки і маніпулятивний контент дедалі частіше поширюються через блогерів і лояльних інфлюенсерів. Це створює ситуацію, коли кандидати формально "не при справах", а дезінформація шириться неконтрольовано, користуючись довірою аудиторії до знайомих облич у соцмережах.
Штучний інтелект більше не є лише технологічною новинкою у виборчих кампаніях — він став їхнім повноцінним рушієм. Від створення аватарів кандидатів до масового поширення діпфейків — нові інструменти вже змінюють те, як ми голосуємо, кого обираємо і як розуміємо політику.
Майбутнє демократії залежить від того, чи зможуть суспільства вчасно усвідомити масштаб викликів і знайти баланс між технологічним прогресом і захистом правди. Бо там, де ШІ виходить з-під контролю, вибори перестають бути вибором.