Автор колонки: Илья Репин — публицист, магистр политологии, участник сообщества Гвара Медиа
Как искусственный интеллект изменил политические выборы: уроки 2024-2025 годов
Во время президентских выборов на Тайване в январе 2024 года кандидата Лая Цинь-дэ пытались дискредитировать с помощью поддельного видео. Более 1500 аккаунтов в Twitter, Facebook и TikTok распространяли ролик с синтезированным голосом и движениями губ, где Лай якобы признавается во внебрачном ребенке и боится разоблачения сексуального скандала. Видео распространялось через каналы, связанные с китайскими пропагандистскими СМИ, а в самом материале было много упрощенных китайских иероглифов, что намекало на возможную связь с Китаем. Одновременно появились дипфейки с виртуальными ведущими, которые выдавали себя за тайванцев и атаковали партию DPP — Демократическую прогрессивную партию, поддерживавшую Лая Цинь-дэ.
Этот случай отражает более широкую тенденцию избирательного сезона 2024 года. Несмотря на ожидания о кардинальном влиянии искусственного интеллекта на демократические процессы, на практике ИИ лишь усиливал существующие информационные пузыри и зеркальные камеры. В результате рейтинг Лая Цинь-дэ снизился лишь на одну позицию, и он выиграл выборы. Однако во время распространения фейка по данным Google Trends интерес к теме «незаконного ребенка» даже превысил запросы о его предвыборной программе. Это ярко свидетельствует, что ИИ-дезинформация действует скорее как инструмент эмоциональной мобилизации и отвлечения внимания, а не убеждения.
ИИ в 2025 году: от тестов к системному применению
Если 2024-й был годом экспериментов с ИИ в избирательных кампаниях, то 2025-й демонстрировал уже внедренный, систематический подход. Было зафиксировано несколько локальных случаев использования искусственного интеллекта как в установленных, так и манипулятивных формах, влиявших на политическое поле.
Легитимные применения ИИ в политике
Некоторые политики использовали ИИ-помощь в образовательных целях перед выборами. Например:
- В Австралии сенатор Дэвид Пок создал сгенерированные видео с премьер-министром Энтони Албанезе и лидером оппозиции Питером Даттоном. Эти ролики имели пародийный характер с отметкой об использовании ИИ, чтобы показать угрозу дезинформации и способствовать общественному диалогу.
- В Германии депутат Бенгт Берльт опубликовал видео с пародией на голос лидера оппозиции Фридриха Мерца с сатирическими фразами. Однако в отличие от Австралии, этот эксперимент вызвал негативный резонанс, и Берльт был вынужден удалить видео и извиниться.
Оба случая свидетельствуют об отсутствии устоявшейся правовой базы по использованию искусственного интеллекта в политических кампаниях, а также показывают усиление потребности в регулировании.
Деструктивные приемы с использованием ИИ
Гораздо чаще искусственный интеллект использовали для манипуляций и введения избирателей в заблуждение. Типичные сценарии дезинформации включают:
- Поддельные видео с политиками, которые якобы поддерживают вымышленные государственные программы или сомнительные проекты (Румыния, Чехия, Канада).
- Подделанные интервью и заявления, дискредитирующие кандидатов (в частности, видео с бывшим премьер-министром Великобритании Риши Сунаком).
- Поддельные сообщения об отстранении кандидатов от выборов в критические моменты (Ирландия, Аргентина).
Эти методы направлены на запуск ложной информации в наиболее уязвимый момент, когда у избирателей мало времени на проверку, что может повлиять на их решения.
Вред от ИИ-дезинформации: реальный масштаб
Опыт 2025 года показывает, что наибольшая проблема заключается не в массовости влияния ИИ, а в том, что он углубляет существующие слабости информационной среды. Чаще всего невозможно точно установить, кто стоит за распространением фейков, что затрудняет ответственность и снижает эффективность реагирования. Также отсутствие единых правил и норм усугубляет проблему.
Таким образом, вред от ИИ-дезинформации проявляется локально и символически, но становится катализатором для негативных сдвигов в демократических процессах. Она не является самым источником угрозы, а выполняет роль усилителя уже имеющихся информационных проблем.
Колонка отражает исключительно взгляд автора и может не совпадать с мнением редакции «Гвара Медиа». Материал не претендует на полную объективность и всесторонность, а редакция не несет ответственности за точность и интерпретацию информации, выполняя роль платформы для общественного обсуждения.


