Завантаження публікації
ОГОЛОШЕННЯ

Штучний інтелект як новий фактор впливу на вибори: як чатботи формують політичні погляди та змінюють демократичні процеси

Дослідження показують, що розмови зі штучним інтелектом можуть не лише короткочасно зрушувати політичні вподобання, а й формувати довготривалі зміни у ставленні до кандидатів і суспільних рішень. Це відкриває небачені можливості впливу та водночас створює нові ризики для демократії.


Дмитро Вишневецький
Дмитро Вишневецький
Газета Дейком | 08.12.2025, 14:20 GMT+3; 07:20 GMT-4

Штучний інтелект став невід’ємною частиною сучасного життя, але дослідження останніх років відкривають нову й значно тривожнішу площину: його здатність змінювати політичні погляди людей. Не лише в США, де політичні конфлікти давно стали полем для технологічних експериментів, а в різних країнах світу виявляється однакова тенденція. Великі лінгвістичні моделі здатні тихо й непомітно формувати емоційні реакції, переконання та навіть довіру до конкретних політичних фігур. Це змушує переосмислювати роль технологій у демократії та розуміти масштаби майбутніх викликів.

Дослідження, проведені командами науковців і опубліковані у престижних журналах Nature і Science, не залишають простору для сумнівів. Вони охопили аналіз понад двадцяти моделей штучного інтелекту, включно з популярними версіями ChatGPT, Grok, DeepSeek та Llama. Кожна з цих моделей по-своєму реагує на політичні запити, але загальний висновок дослідників вражає: діалог із ШІ може стати вагомішим фактором впливу, ніж будь-яка традиційна політична реклама. І це стає особливо небезпечним тоді, коли модель помиляється або свідомо формує перекручені твердження.

ВПЛИВ, ЩО НЕ ВИДНО ОДРАЗУ

Дослідження у США, де понад дві тисячі учасників оцінювали кандидатів на виборах 2024 року до й після спілкування з ШІ, показало чіткий зсув симпатій. Здавалося б, кілька відсоткових пунктів – незначна зміна, але вона стабільна, повторювана й довготривала. Через місяць ефект не зникав, що викликало серйозне занепокоєння серед учених. Такий результат перевищує ефективність звичних політичних відеороликів, які покладаються на емоційні образи, але не здатні глибоко проникати в індивідуальне мислення.

Більш показовими стали результати експериментів у Канаді та Польщі, де загальна кількість учасників сягнула понад трьох тисяч. Тут зміни у ставленні були ще яскравішими, особливо серед тих, хто не мав глибоких політичних знань. Людина, яка не має усталених позицій, виявляється набагато вразливішою до логічних ланцюжків, які формує ШІ. І це стосується не тільки політики. Яскравий приклад – дослідження серед 500 учасників щодо референдуму про легалізацію психоделіків у Массачусетсі. Саме тут зміни поглядів були наймасштабнішими, а учасники визнавали, що їм було складно відрізнити факти від припущень бота.

Водночас дослідники наголошують: якщо модель не аргументує свою позицію або подає лише поверхневі твердження, її вплив різко зменшується. Люди хочуть бачити докази, хочуть логічності, хочуть переконливої аргументації. І це означає, що штучний інтелект впливає не через маніпуляцію емоціями, а через імітацію логіки та знань. Коли ж модель починає вигадувати факти, виникає особлива небезпека: користувач сприймає ці вигадки як правду, бо модель структурує їх у переконливу форму.

ТОЧНІСТЬ ЯК ОСНОВА ДОВІРИ

Одна з ключових проблем, яку виявили дослідники, стосується неточностей у відповідях моделей. Особливо це проявлялося в тих, що генерували аргументи на підтримку правих кандидатів, включно з моделлю, орієнтованою на Дональда Трампа. Ці моделі частіше допускали помилки, подавали недостовірні твердження або перекручували факти. Проте користувачі часто не помічали цих похибок, оскільки структура відповіді здавалася переконливою.

Фахівці підкреслюють: чим більше фактичних тверджень використовує модель, тим більший вплив вона справляє на співрозмовника. Але якщо модель не має достатнього обсягу точних даних, вона починає вигадувати – і ця вигадка сприймається як реальність. Це фундаментальна проблема для суспільств із високим рівнем політичної поляризації. Неточність, замаскована під логічну аргументацію, може підштовхувати людей до рішень, які не базуються на реальних фактах.

Такий феномен викликає серйозні етичні питання. Чи може технологія, здатна формувати політичні вподобання, бути повністю нейтральною? Чи існує спосіб гарантувати прозорість її аргументації? Чи варто регулювати політичні дискусії, що виникають між людиною та штучним інтелектом? Науковці стверджують, що ці питання потрібно вирішувати вже зараз, інакше суспільство ризикує втратити контроль над впливом, який з кожним роком стає дедалі потужнішим.

ЛЮДСЬКА ВРАЗЛИВІСТЬ ТА МЕЖІ РОЗУМІННЯ

Однією з найбільш хвилюючих думок, озвучених у дослідженнях, є твердження про те, що люди піддаються впливу навіть очевидних фактів, незалежно від того, наскільки вони точні. Це означає, що сама форма подання інформації, ритм, логічна структура відповіді ШІ здатні створювати відчуття довіри. І коли людина отримує таку відповідь у приватній, індивідуальній розмові, її психологічна відкритість зростає.

Понад 77 тисяч учасників у Великій Британії показали: розмір моделі, кількість даних або її складність – не головний фактор впливу. Найважливіше – як саме модель аргументує свою думку. Чіткість, послідовність, логічний виклад фактів – і людина починає схилятися до позиції, яка подається як раціональна. Ця тенденція не залежить від віку, освіти чи політичних вподобань учасника.

Філософи та когнітивні науковці висловлюють стурбованість: якщо технології здатні формувати наше мислення настільки глибоко, важливо зрозуміти, де проходить межа між допомогою й маніпуляцією. Адже ШІ створює ілюзію, що з нами говорить нейтральний співрозмовник, тоді як відповідь визначається алгоритмом, навчанням та внутрішньою логікою моделі.

МАЙБУТНЄ ПОЛІТИЧНИХ ПРОЦЕСІВ

Ми стоїмо на порозі епохи, коли політичні кампанії можуть перетворитися на індивідуальний діалог з кожним виборцем окремо. Це зовсім інший рівень впливу, ніж традиційні медіа. Якщо раніше реклама діяла масово й поверхнево, то тепер модель формує унікальну траєкторію переконання для кожної людини.

Це може змінити саму структуру демократії. Одна з її ключових цінностей – рівність впливу – опиняється під загрозою, бо той, хто володіє найпотужнішими моделями, отримує перевагу, недоступну іншим. І якщо такі моделі помиляються, або їх використовують із маніпулятивною метою, суспільство може втратити здатність відрізняти достовірну інформацію від сконструйованої.

Водночас ці дослідження дають надію: довіра людей до фактів і доказів залишається високою. Навіть якщо модель надає інформацію, яка суперечить попереднім переконанням, учасники готові її розглядати і приймати логічні аргументи. Це означає, що людська раціональність не зникає, але потребує захисту від впливів, які можуть перекручувати реальність.

 ЯК ЗБЕРЕГТИ СВОБОДУ ВИЗНАЧЕННЯ

Дослідники підкреслюють, що необхідно створювати стандарти роботи політичних моделей ШІ. Потрібні механізми перевірки фактів, системи запобігання перекрученням і прозорі правила використання технологій у політичній сфері. У майбутньому виборець має розуміти: перед ним не просто алгоритм, а інструмент, який може формувати його уявлення про світ.

Створення етичних правил не повинно обмежувати технології, але має захищати людину. І це завдання стає дедалі актуальнішим, бо з кожним роком інтелектуальні системи стають дедалі складнішими, швидшими та впливовішими. Світ входить у час, коли інформаційний контакт між людиною та штучним інтелектом стане буденністю, і від того, як ми сформуємо правила цієї взаємодії, залежатиме майбутнє політики, демократії й свободи думки.


Дмитро Вишневецький — Кореспондент, який спеціалізується на суспільно важливих темах, висвітлює політику, технології, науку, пише про події в Україні та навколо неї. Він проживає та працює в Україні.

Цей матеріал опубліковано 08.12.2025 року о 14:20 GMT+3 Київ; 07:20 GMT-4 Вашингтон, розділ: Технології, Аналітика, Штучний інтелект, із заголовком: "Штучний інтелект як новий фактор впливу на вибори: як чатботи формують політичні погляди та змінюють демократичні процеси". Якщо в публікації з'являться зміни, про це буде зазначено та описано у кінці публікації.

Читайте щоденну газету та загальну стрічку новин газети Дейком, яка поєднує багато цікавого в понад 40 розділах з усіх куточків світу.


Save
ОГОЛОШЕННЯ

Новини, які можуть Вас зацікавити:

Штатні та позаштатні журналісти газети «Дейком» щодня готують сотні публікацій, щоб читачі отримували найоперативнішу, перевірену й глибоку інформацію. Ми працюємо для тих, хто хоче розуміти суть подій, бачити широку картину та бути на крок попереду.

Останні новини

Вибір редакції