Апокалипсис, который мы проспали (или придумали?)
Я начал это расследование с простого, казалось бы, вопроса: кто на самом деле дергает за ниточки в 2025 году — люди или алгоритмы? Если верить заголовкам годичной давности, когда мир готовился к «суперциклу» выборов 2024 года, мы должны были уже жить в дымящихся руинах пост-правды. Нам обещали, что нейросети выберут президентов за нас. Нам обещали, что дипфейки станут ядерным оружием, а избиратели не смогут отличить родную мать от голограммы.
Я потратил месяцы, разгребая цифровые архивы, опрашивая циничных политтехнологов, которые продают «магические кнопки» отчаявшимся кандидатам, и анализируя тысячи страниц отчетов о вмешательстве — от Вашингтона до Нью-Дели, от Буэнос-Айреса до Москвы.
И я скажу вам прямо, без прикрас: если вы ищете Скайнет, который взломал урны для голосования и переписал бюллетени, вы его не найдете. Но если вы думаете, что все эти разговоры об ИИ были просто шумом — вы ошибаетесь еще сильнее. И эта ошибка может стоить нам свободы.
Правда, как это часто бывает, оказалась не в громких взрывах, а в тихой, почти незаметной эрозии фундамента. ИИ не заменил политиков. Он сделал кое-что хуже: он дал им идеальное алиби. Пока мы боялись, что машина обманет нас, политики научились использовать страх перед машиной, чтобы обманывать нас самим. Это не история о восстании роботов. Это история о людях, которые прячутся за спинами роботов, чтобы делать свою грязную работу эффективнее, дешевле и быстрее.
В этом отчете мы пройдем путь от «змеиного масла», которое продают консультанты, до реальных операций спецслужб. Мы увидим, как ИИ стал щитом для лжецов и мечом для женоненавистников. Мы копнем до воды.
Часть I. Анатомия хайпа: Индустрия «Змеиного масла» и продавцы воздуха
В любом расследовании, будь то коррупция в мэрии Гринвилла или глобальные киберугрозы, первое правило одно: ищите деньги. Кто выигрывает от паники вокруг ИИ? Ответ очевиден: те, кто продает от неё лекарство, и те, кто продает само оружие.
1.1. Рынок «волшебных алгоритмов»
Политический консалтинг — это бизнес, построенный на продаже надежды и страха. В 2024 году главным товаром стал Искусственный Интеллект. Я общался с десятками консультантов, которые в приватных беседах, после пары стаканов, признавались: большинство инструментов, продаваемых штабам как «революционные системы нейролингвистического воздействия на подсознание избирателя», на деле представляют собой слегка настроенные обертки (wrappers) вокруг ChatGPT или Claude.
Существует термин, который идеально описывает происходящее на рынке политтехнологий: AI Snake Oil («Змеиное масло ИИ»). Это старый добрый обман, завернутый в новую, блестящую упаковку из технического жаргона.
Как это работает на практике? Политтехнолог приходит к кандидату, у которого горят сроки и падают рейтинги, и говорит: «Слушайте, у нас есть проприетарная система на базе генеративного ИИ. Она проанализирует цифровой след каждого избирателя в округе, определит его глубинные страхи и сгенерирует сообщение, которое гарантированно заставит его проголосовать за вас». Звучит как магия. Звучит как победа.
На практике «магия» выглядит так:
- Сбор данных: Берутся те же базы данных избирателей (voter files), что использовались 10 лет назад. Никакой новой «нейропсихологии» там нет.
- Генерация: Используется коммерческая LLM (Large Language Model) для написания 50 вариантов одного и того же фандрайзингового письма.
- Результат: Эффективность кампании повышается на статистическую погрешность, но счет за услуги вырастает в разы.
Научные данные подтверждают мой скепсис. Исследование, опубликованное в PNAS, показало, что персонализированные сообщения, созданные ИИ на основе демографических данных (возраст, пол, партийная принадлежность), не показали статистически значимого преимущества перед обычными, качественно написанными сообщениями. То есть, машина не убеждает лучше человека. Она просто делает это быстрее. Она — не гений убеждения, она — неутомимый графоман.
1.2. Реальность: Скучный ИИ как «бесплатный стажер»
Однако было бы глупо и непрофессионально отрицать пользу ИИ. Просто она скучная. Она не голливудская. В опросе членов Американской ассоциации политических консультантов (AAPC) выяснилось, что реальное, рабочее применение ИИ — это не создание дипфейков, способных обрушить рынки, а черновая бюрократическая работа.
Вот как выглядит реальное распределение использования ИИ в штабах:
«Это не Скайнет, Энни, — сказал мне один из стратегов Демократической партии, помешивая кофе в пластиковом стаканчике. — Это просто очень быстрый секретарь, который иногда врет и которого нельзя уволить».
1.3. Каннибализм контента и инфляция смысла
Здесь мы сталкиваемся с иронией, которую редко замечают техно-оптимисты. ИИ должен был освободить людей для творчества, но в политике он привел к чудовищной инфляции контента. Поскольку создание текста, картинок и даже видео стало почти бесплатным, штабы начали заваливать избирателей информационным мусором.
Если раньше написание качественного, берущего за душу фандрайзингового письма стоило времени, таланта и денег, то теперь можно сгенерировать тысячу вариантов за минуту, меняя лишь тональность с «умоляющей» на «агрессивную». Результат? Избиратель тонет в информационном шуме.
- Почтовые ящики забиты спамом.
- Соцсети наводнены однотипными картинками «счастливых семей» и «ужасных врагов», нарисованными Midjourney.
- Качество коммуникации падает, а цинизм растет.
Мы не стали информированнее благодаря ИИ. Мы просто стали более уставшими. И в этой усталости кроется опасность: когда все кричат одновременно, выигрывает не тот, кто говорит правду, а тот, кто кричит громче и чаще. Или тот, кто использует технологии, чтобы заставить замолчать других.
Часть II. Дивиденд лжеца: Как убить правду чужими руками
Если «змеиное масло» — это просто способ заработать денег на доверчивых кандидатах, то феномен, который эксперты назвали «дивиденд лжеца» (liar's dividend), — это прямая, экзистенциальная угроза демократии. И это, пожалуй, самое страшное и неочевидное открытие моего расследования.
Термин, введенный профессорами права Бобби Чесни и Даниэль Ситрон, описывает парадоксальную ситуацию: по мере того как общественность узнает о существовании дипфейков, становится все легче отрицать подлинность реальных компрометирующих материалов. Само существование технологии становится универсальным алиби.
2.1. «Это не я, это нейросеть»
Вспомните старые добрые времена. Если политика ловили на горячем — на аудиозаписи, где он берет взятку, или на видео, где он совершает что-то непотребное, — это был конец карьеры. Видео было доказательством. Аудио было уликой.
В 2024–2025 годах правила игры изменились. Теперь любая компрометирующая запись, как только она появляется в сети, автоматически атакуется армией ботов и юристов с одним аргументом: «Это дипфейк». И, что самое страшное, это работает. Люди, напуганные рассказами об ИИ, готовы поверить в подделку.
Прецедент Трампа: Переписывание истории
Мы видели, как эта тактика зарождалась еще до бума генеративного ИИ, но теперь она расцвела пышным цветом. Дональд Трамп, чья скандальная запись Access Hollywood (где он хвастается домогательствами к женщинам) была подтверждена им самим в 2016 году, и за которую он тогда публично извинялся, в последнее время начал менять показания. По данным источников, он начал намекать в частных беседах и публичных полунамеках, что запись может быть неаутентичной, измененной или вовсе сгенерированной.
Это классический газлайтинг, но теперь он вооружен технологиями. Трамп использует общее недоверие к медиа и страх перед ИИ, чтобы переписать историю. Если видео 2005 года можно объявить фейком сегодня, то что мешает объявить фейком видео вчерашнего преступления?
Глобальная эпидемия отрицания
Эта тактика распространилась по всему миру быстрее, чем любой вирус.
- Мексика: Мэр Паола Ангон попала в эпицентр скандала, когда в соцсетях появилась аудиозапись, на которой она якобы обсуждает выплату крупной взятки за свое переизбрание. Её реакция была мгновенной: «Это дипфейк, созданный моими врагами с помощью ИИ». Техническая экспертиза показала 95% вероятности, что голос на записи настоящий и не подвергался обработке. Но это не имело значения. Сомнение было посеяно. Сторонники мэра ухватились за версию с ИИ, и скандал увяз в технических спорах вместо юридических последствий. Она сохранила пост.
- США (локальный уровень): В штатах вроде Мэриленда локальные политики начали использовать «защиту дипфейком» как стандартную процедуру. Мэр Уоррена Джим Фаутс утверждал, что аудиозаписи его расистских и оскорбительных комментариев были сгенерированы, хотя анализ подтвердил их подлинность.
2.2. Смерть доказательства
Опасность здесь не в том, что мы поверим в ложь (что Байден звонил нам домой, или что Трамп обнимал Фаучи). Опасность в том, что мы перестанем верить в правду.
Когда избиратель слышит настоящую запись коррупционного сговора и его первой мыслью становится: «Ну, сейчас все можно подделать, правды мы никогда не узнаем», — демократический контроль умирает. Это мечта любого автократа: общество, погруженное в циничный нигилизм, где «все врут», истины не существует, а значит, нет и ответственности.
Как журналист, я чувствую это на себе каждый день. Раньше моей задачей было найти факты. Раскопать документ, достать запись. Теперь моя задача усложнилась вдвое: я должен не просто найти факт, я должен убедить людей, что найденные факты — это не пиксели, сгенерированные Midjourney. И это битва, которую мы пока проигрываем. Бремя доказательства сместилось: теперь презумпция невиновности превратилась в «презумпцию фейка».
Часть III. Лаборатории хаоса: Глобальные полигоны ИИ
Чтобы понять, как ИИ меняет политику, нельзя смотреть только на США. Будущее уже наступило, и оно распределено по планете неравномерно. Разные страны стали уникальными лабораториями, где тестировались различные сценарии использования технологий. Я изучил несколько ключевых театров действий.
3.1. Аргентина: Дикий Запад, мемы-мутанты и психоделика
Если вы хотите увидеть выборы без правил, посмотрите на Аргентину 2023 года. Битва между либертарианцем Хавьером Милеем и перонистом Серхио Массой стала первыми в мире выборами, где ИИ стал основным языком визуальной коммуникации.
Здесь не было попыток скрыть использование ИИ. Наоборот, это было соревнование в креативном безумии. Это были выборы эпохи пост-текста.
- Штаб Массы: Использовал специализированную систему «IA x la Patria» для создания плакатов в стиле советского соцреализма и голливудских блокбастеров. Они изображали Милея то как сумасшедшего ученого, готового взорвать страну, то как злодея из «Заводного апельсина», то как персонажа постапокалипсиса. Вершиной (или дном) этой кампании стал дипфейк, где Милей якобы спокойно объясняет экономическую выгоду от создания рынка человеческих органов.
- Штаб Милея: Отвечал не менее агрессивно. Они распространяли миллионы ИИ-изображений, где Милей представал в образе героического, мудрого льва. Когда он заключил союз с Патрисией Буллрич (чей символ — утка), интернет наводнили сгенерированные картинки льва, нежно обнимающего утку.
Инсайт Анны Брукс: В Аргентине ИИ не использовался для обмана в классическом смысле. Никто всерьез не верил, что Милей — это лев. ИИ использовался для эмоциональной накачки. Это был визуальный крик. Политика превратилась в сюрреалистический комикс, в войну мемов. Опасность здесь кроется в тривиализации выбора. Когда кандидаты — это мультяшные персонажи, реальные экономические проблемы (инфляция 140%!) уходят на второй план. Выборы становятся шоу, а не решением судьбы страны.
3.2. Индия: Голоса из могилы и технологический спиритизм
Индия — это масштаб. 970 миллионов избирателей. И здесь ИИ использовался для преодоления двух главных барьеров: языкового и... смертного.
Воскрешение мертвых
Самый жуткий и одновременно гениальный тренд индийских выборов — «цифровое воскрешение». В штате Тамилнад партия DMK использовала ИИ, чтобы «оживить» своего культового лидера М. Карунаниди, умершего еще в 2018 году. С огромных экранов на митингах он, в своих фирменных темных очках и желтом шарфе, обращался к избирателям. Его голос, синтезированный нейросетью, звучал пугающе реально. Он хвалил своего сына, нынешнего лидера М.К. Сталина, и призывал голосовать за партию.
Это работает на глубоком культурном уровне. В Индии политик — это часто полубожественная фигура, отец нации. ИИ позволил партиям эксплуатировать харизму своих основателей даже за пределами их физической смерти. Смерть больше не является поводом уходить из политики.
Вавилонская рыбка
Но было и более практичное применение. Кандидаты использовали ИИ для перевода своих речей в реальном времени. Нарендра Моди мог говорить на хинди, а избиратели в южных штатах слышали его голос (с сохранением интонаций!), говорящий на тамильском, телугу или малаялам. Это демократизация доступа или манипуляция доверием? Когда ты слышишь, как лидер говорит на твоем родном диалекте, ты доверяешь ему больше — даже если на самом деле он не знает ни слова.
Темная сторона WhatsApp
Однако Индия показала и темную сторону «платформенной политики». WhatsApp здесь — главный источник новостей. И именно в закрытых чатах WhatsApp распространялись миллионы дипфейков, которые невозможно отследить и модерировать. Видео, где популярные актеры Болливуда (Аамир Кхан, Ранвир Сингх) якобы критикуют Моди и призывают голосовать за оппозицию, распространялись вирусно. Актеры подавали жалобы в полицию, выпускали опровержения, но вирус уже ушел в народ. Опровержения всегда опаздывают.
3.3. Великобритания: Провал «AI Steve»
Если Аргентина — это драма, а Индия — эпос, то Британия подарила нам фарс, который, однако, многому учит. Встречайте: AI Steve.
Бизнесмен Стив Эндакотт решил баллотироваться в парламент от округа Брайтон-Павильон не сам, а через своего ИИ-аватара. Идея была утопичной и технократической: «Я буду голосовать в парламенте так, как решит мой ИИ на основе постоянных опросов избирателей и анализа данных». Он обещал 24/7 доступность и полное отсутствие личных предубеждений.
Результат? Полный, сокрушительный провал. AI Steve получил всего 179 голосов (0.3%). Он проиграл даже кандидату от партии «Монстр Рэйвинг Луни» (официальная сатирическая партия).
Почему это важно? Этот кейс показывает пределы техно-оптимизма. Люди могут использовать ИИ для развлечения, могут бояться его, но они категорически не готовы доверить алгоритму представительство. Демократия — это про ответственность, про возможность посмотреть в глаза тому, кто принимает решения. ИИ по определению безответственен. С кого спрашивать, если алгоритм ошибется? С сервера? С кода? Британцы сказали твердое «нет» управлению через алгоритм.
3.4. США: Точечные удары и подавление воли
В США использование ИИ было менее карнавальным, чем в Аргентине, но более зловещим и циничным. Здесь технологии применялись как высокоточное оружие.
Робозвонок Байдена: Диверсия за $150
В январе 2024 года, перед праймериз в Нью-Гэмпшире, тысячи демократов подняли трубки. Знакомый голос Джо Байдена, используя его фирменные интонации и словечки вроде «malarkey» (чушь), доверительно просил их... не голосовать. «Сберегите свой голос для ноября», — говорил лже-Байден.
Это была ложь. Это была диверсия.
- Кто это сделал: Политконсультант Стив Крамер, работавший на конкурента Байдена Дина Филлипса.
- Инструментарий: ПО для клонирования голоса от ElevenLabs и сервис для массового обзвона.
- Цена: Создание фейка стоило около $150 и заняло 20 минут.
- Угроза: Это был классический voter suppression (подавление явки). Не агитация «против», а убеждение «не участвовать». Этот случай показал, насколько уязвима избирательная инфраструктура перед дешевыми, но технологичными атаками. Один человек с ноутбуком может попытаться сорвать выборы в целом штате.
Часть IV. Психология избирателя: Почему мы верим (или нет)
Почему, несмотря на все эти атаки, результаты выборов 2024 года не были катастрофически перевернуты ИИ? Почему «Скайнет» не сработал так, как предсказывали пессимисты? Ответ кроется не в технологиях, а в человеческой психологии.
4.1. Предвзятость подтверждения (Confirmation Bias)
Большинство академических исследований (включая работу Тьюринговского института) показывают: дипфейки почти не переубеждают оппонентов.
- Демократ, увидев фейковое видео, где Трамп обнимает Фаучи, подумает: «Это фейк» или найдет оправдание.
- Республиканец, увидев то же видео, проигнорирует его, если оно не вписывается в его картину мира (или поверит, если он поддерживает Десантиса и ищет повод не любить Трампа).
ИИ работает как усилитель вкуса, а не как новый ингредиент. Он делает фанатиков более фанатичными, а скептиков — более циничными. Он поляризует, но редко конвертирует сторонника одной партии в сторонника другой.
4.2. Эффект «Третьего лица»
Люди склонны думать: «Ну, я-то отличу фейк, я умный. Это другие дураки поверят». Это опасная иллюзия. Исследования показывают, что чем старше человек, тем сложнее ему отличить ИИ-контент, но и молодежь часто пасует перед качественным аудио-дипфейком. Мы все уязвимы, но наша самоуверенность играет на руку манипуляторам.
4.3. ИИ-паника как отвлечение
Есть мнение, которое высказывают такие эксперты, как Нейт Персили: паника вокруг ИИ (AI Panic) сама по себе является проблемой. Пока мы ищем сложные технологические заговоры, мы упускаем из виду старые, скучные проблемы: джерримендеринг, законы об ограничении голосования, непрозрачное финансирование. ИИ стал удобным пугалом, отвлекающим от структурных проблем демократии.
Часть V. Будущее: 2026–2028. Прогноз
Мы стоим на пороге новой эры. 2024 год был только разминкой, бета-тестированием. Технологии развиваются экспоненциально. Что нас ждет к следующим циклам?
5.1. Гиперперсонализация (Real-time Persuasion)
Пока что микротаргетинг ИИ работает плохо. Но модели становятся умнее. Скоро мы можем увидеть чат-ботов, которые будут вести долгие, персонализированные диалоги с каждым избирателем. Не массовая рассылка, а индивидуальный «друг» в мессенджере, который месяцами мягко подталкивает вас к нужной точке зрения, используя данные о ваших страхах, кредитах и семейном положении. Это уже не пропаганда, это психологическая вербовка.
5.2. Размывание реальности в реальном времени
Дипфейки в прямом эфире. Представьте: президент выступает с обращением к нации, а хакеры перехватывают сигнал и меняют движение его губ и слова в реальном времени. Технически мы уже почти там. Если сегодня мы сомневаемся в записи, завтра мы будем сомневаться в прямом эфире.
5.3. Законодательная гонка: Щит против Меча
Европа пытается регулировать это с помощью AI Act, требуя маркировки синтетического контента. США отстают, полагаясь на лоскутное одеяло законов штатов. Платформы вроде X (Twitter) уволили команды по этике и стали рассадником фейков. Без жестких законов и инструментов верификации (например, цифровых водяных знаков на уровне камер) мы останемся беззащитны.
Заключение: Копать до воды
Я заканчиваю этот отчет глубокой ночью. За окном Питер спит, но серверы где-то в Москве, Пекине или Вашингтоне продолжают гудеть, генерируя новую реальность.
За время этого расследования я видел много лжи. Я видел, как технологии, способные лечить болезни и переводить поэзию, используются для того, чтобы заставить пенсионерку бояться идти на выборы.
ИИ в политике — это не миф и не правда. Это инструмент. Молоток. Им можно построить дом, а можно проломить череп. Сейчас, к сожалению, в политике он чаще используется для второго.
Главные выводы расследования:
- Апокалипсис отменен, но коррозия идет. Мы не увидели мгновенного краха демократии под волной дипфейков. Мы видим её медленное гниение из-за потери доверия.
- Дивиденд лжеца — главная угроза. Политики получили карт-бланш на отрицание реальности. «Это не я, это ИИ» — новая мантра коррупционеров.
- Скучный ИИ эффективнее яркого. Реальное влияние оказывают не вирусные видео, а автоматизация рутины, спама и создание псевдо-новостных сайтов в промышленных масштабах.
- Мы — главная уязвимость. Не алгоритмы взламывают выборы. Они взламывают наши когнитивные искажения.
Что нам делать? Перестать паниковать и начать проверять. Перестать искать технологическое решение (волшебную программу-детектор) для социальной проблемы. Нам нужно вернуть ценность правде. Нам нужно поддерживать журналистику, которая копает до воды. И нам нужно перестать верить в сказки — как страшные, так и красивые.
Правда всё еще существует. Просто теперь за неё нужно драться с удвоенной силой.