Інформаційні маніпуляції зі штучним інтелектом під час виборів: уроки 2025 року

Автор колонки: Ілля Рєпін — публіцист, магістр політології, учасник спільноти Ґвара Медіа

Як штучний інтелект змінив політичні вибори: уроки 2024-2025 років

Під час президентських виборів у Тайвані в січні 2024 року кандидата Лая Чінг-де намагалися дискредитувати за допомогою фейкового відео. Понад 1500 акаунтів у Twitter, Facebook та TikTok розповсюджували ролик із синтезованим голосом і рухами губ, де Лай нібито зізнається у позашлюбній дитині та боїться викриття сексуального скандалу. Відео поширювалося через канали, пов’язані з китайськими пропагандистськими ЗМІ, а в самому матеріалі було багато спрощених китайських ієрогліфів, що натякало на можливий зв’язок із Китаєм. Одночасно з’явилися дипфейки з віртуальними ведучими, які видавали себе за тайванців і атакували партію DPP — Демократичну прогресивну партію, що підтримувала Лая Чінг-де.

Цей випадок відображає ширшу тенденцію виборчого сезону 2024 року. Незважаючи на очікування про кардинальний вплив штучного інтелекту на демократичні процеси, на практиці ШІ лише посилював існуючі інформаційні бульбашки та дзеркальні камери. В результаті рейтинг Лая Чінг-де знизився лише на одну позицію, і він виграв вибори. Проте під час поширення фейку за даними Google Trends інтерес до теми «незаконної дитини» навіть перевищив запити на його передвиборчу програму. Це яскраво свідчить, що ШІ-дезінформація діє радше як інструмент емоційної мобілізації й відволікання уваги, а не переконання.

ШІ у 2025 році: від тестів до системного застосування

Якщо 2024-й був роком експериментів із ШІ у виборчих кампаніях, то 2025-й демонстрував уже впроваджений, систематичний підхід. Було зафіксовано кілька локальних випадків використання штучного інтелекту як у прописаних, так і маніпулятивних формах, що впливали на політичне поле.

Легітимні застосування ШІ у політиці

Деякі політики використовували ШІ-допомогу для освітніх цілей перед виборами. Наприклад:

  • В Австралії сенатор Девід Покок створив згенеровані відео з прем’єр-міністром Ентоні Албанізі та опозиційним лідером Пітером Даттоном. Ці ролики мали пародійний характер із позначкою про використання ШІ, щоб показати загрозу дезінформації та сприяти громадському діалогу.
  • У Німеччині депутат Бенгт Бергт оприлюднив відео з пародією на голос лідера опозиції Фрідріха Мерца із сатиричними фразами. Однак на відміну від Австралії, цей експеримент викликав негативний резонанс, і Бергт був змушений видалити відео та вибачитись.

Обидва випадки свідчать про відсутність усталеної правової бази щодо використання штучного інтелекту в політичних кампаніях, а також показують посилення потреби у регуляції.

Деструктивні прийоми з використанням ШІ

Набагато частіше штучний інтелект використовували для маніпуляцій та введення виборців в оману. Типові сценарії дезінформації включають:

  1. Фальшиві відео з політиками, які нібито підтримують вигадані державні програми або сумнівні проєкти (Румунія, Чехія, Канада).
  2. Підроблені інтерв’ю та заяви, що дискредитують кандидатів (зокрема, відео з колишнім прем’єром Великої Британії Ріші Сунаком).
  3. Фейкові повідомлення про зняття кандидатів з виборів у критичні моменти (Ірландія, Аргентина).

Ці методи спрямовані на запуск неправдивої інформації в найбільш вразливий момент, коли у виборців мало часу на перевірку, що може вплинути на їхні рішення.

Шкода від ШІ-дезінформації: реальний масштаб

Досвід 2025 року показує, що найбільша проблема полягає не в масовості впливу ШІ, а в тому, що він поглиблює існуючі слабкості інформаційного середовища. Найчастіше неможливо точно встановити, хто стоїть за поширенням фейків, що ускладнює відповідальність і знижує ефективність реагування. Також відсутність єдиних правил і норм посилює проблему.

Отже, шкода від ШІ-дезінформації проявляється локально і символічно, але стає каталізатором для негативних зрушень у демократичних процесах. Вона не є самим джерелом загрози, а виконує роль підсилювача вже наявних інформаційних проблем.

Колонка відображає виключно погляд автора та може не збігатися з думкою редакції «Ґвара Медіа». Матеріал не претендує на повну об’єктивність і всебічність, а редакція не несе відповідальності за точність і тлумачення інформації, виконуючи роль платформи для суспільної дискусії.