Упродовж останніх двох років штучний інтелект дедалі активніше втручається у виборчі кампанії по всьому світу, перетворюючи безпілотні технології на потужний інструмент маніпуляції та поширення фейкових новин.
У Канаді напередодні квітневих виборів в інтернеті з’явилася A.I.-генерована фотографія, яка нібито демонструвала Марка Карні — одного з кандидатів на посаду прем’єр-міністра — у компанії дискредитованого фінансиста Джеффрі Епштейна.
У Польщі штучно створені пости у соціальних мережах попереджали про ймовірний теракт, що нібито мав призвести до скасування голосування, а їхнє походження було пов’язане з російськими впливовими кампаніями.
У Румунії A.I. спотворив результати першого туру президентських виборів, змусивши провести їх повторно, а в США з’явилося підроблене відео з розмовою Дональда Трампа, що нібито підтримував одного з кандидатів.
Завдяки доступності та простоті використання інструментів генеративного штучного інтелекту з’явилася безліч нових способів маніпулювання громадською думкою: від фото і відео з глибинними підробками до фальшивих текстів у соцмережах, що імітують новинні публікації. Ці фейкові новини швидко стають вірусними, розповсюджуються анонімно та створюють атмосферу недовіри до виборчої системи й підривають саму сутність демократичних інститутів.
Найбільш яскравим прикладом стала Румунія, де в листопаді минулого року російська операція із застосуванням штучного інтелекту серйозно вплинула на перший тур виборів. Справжній шквал підроблених відео та голосових клонів поширювався TikTok, що змусило суд анулювати результати й призначити повторне голосування в травні.
У Польщі автоматизовані мережі в соціальних мережах поширювали неправдиві повідомлення про загрозу безпеці виборців, а у Великобританії A.I.-згенероване зображення з натовпом мігрантів поширювалось як доказ необхідності «референдуму з імміграції». Ці приклади свідчать про те, що іноземне втручання з використанням штучного інтелекту стало невід’ємним елементом сучасних виборів.
Не всі використання штучного інтелекту в політиці є шкідливими: близько 25 % випадків, за даними Міжнародної панелі з інформаційного середовища, припадає на кандидатів, які застосовують A.I. для перекладу своїх промов на локальні діалекти чи для аналізу поведінки виборців і цільової реклами.
Проте 69 % виявлених випадків мали деструктивний характер, спрямований на дискредитацію опонентів або посилення соціальних розколів. У Південній Кореї була поширена підроблена A.I.-модель відео, де виглядало, ніби кандидат на президентську посаду вдає голодування. В Аргентині алгоритми правили звуки та рухи губ екс-президента Маурісіо Макрі, щоб скомпрометувати його перед виборцями.
Соціальні мережі, включно з Facebook, X (Twitter), YouTube і TikTok, намагаються протидіяти дезінформації, але їхні алгоритми часто орієнтуються на максимальну залученість користувачів. Нечіткі маркери «штучно згенерованого контенту» рідко стримують вірусність матеріалів, і лише незначна частина фейків видаляється ще до масового поширення.
Логотип ChatGPT видно на цій ілюстрації, зробленій 22 січня 2025 року. Дадо Рувік
Дослідники з Університету Нотр-Дама виявили, що створені A.I. акаунти можуть безперешкодно уникати виявлення на восьми основних платформах — від LinkedIn до Mastodon і Reddit, що свідчить про недостатню ефективність сучасних систем модерації.
Ключовим викликом є поєднання якості та масштабу: раніше урядові або приватні «тролеферми» забезпечували високу якість маніпуляцій, але не могли працювати на великих масивах аудиторії.
З появою ChatGPT, Midjourney та інших комерційних сервісів ця межа стерлася — сьогодні з десятком кліків можна створити реалістичну глибинну підробку чи фальшивий аудіозапис політика. Результатом стала небачена раніше швидкість та обсяг дезінформаційних атак.
Експерти попереджають, що без оперативних контрзаходів під загрозою опиниться сама ідея вільних виборів. Усвідомлення того, що будь-яке відео чи фото може бути фейком, підірвало довіру громадян до офіційних результатів. Наслідки вже проявилися в Німеччині, Польщі, Португалії та Австралії, де штучний інтелект вплинув на рішення виборців і навіть на підрахунок голосів.
Для захисту демократичного процесу необхідні всебічні зміни: жорсткіші норми щодо маркування A.I.-згенерованого контенту, розвиток технологій автоматичного виявлення підробок і співпраця між урядами, технологічними компаніями та незалежними дослідниками. Лише за умови поєднання законодавчих, технічних та освітніх заходів ще можна відновити баланс між інноваціями та довірою. Demokratія зіштовхується з викликом, який вимірюється не стільки голосами, скільки кількістю байтів — і перемога залежить від того, наскільки швидко суспільство навчиться відрізняти справжнє від штучного.