На днях нидерландское Управление по защите данных официально попросило граждан не использовать чат-боты для выбора кандидата на парламентских выборах 29 октября 2025 года.
Причина? Исследование показало: популярные ИИ-ассистенты — включая ChatGPT, Gemini, Grok и Le Chat — системно игнорируют центристские партии и вместо этого чаще всего рекомендуют голосовать либо за крайне правую Партию свободы (PVV) Герта Вилдерса, либо за левое объединение GroenLinks-PvdA.
Более чем в 50% случаев партия «Христианско-демократический призыв» (CDA) — одна из ключевых сил в нидерландской политике последних десятилетий — просто не упоминалась в рекомендациях ИИ.
Как сказала замглавы регулятора Моник Вердье:
«Как инструмент для помощи избирателям эти системы стабильно проваливаются, подталкивая людей к партиям, взгляды которых могут не совпадать с их собственными».
И это не теория заговора. Проблема — в самом устройстве ИИ.
Откуда берётся «политическая предвзятость» у нейросетей?
Важно понимать: это не злой умысел разработчиков. Никто не встраивал в GPT-4 инструкцию «продвигай Вилдерса». Просто:
1. Обучающие данные ИИ — это интернет.
А в англоязычном (и частично голландском) медиапространстве последние годы доминируют поляризованные дискуссии: либо «ультраправые угрожают демократии», либо «зелёные уничтожают экономику». Центристы — скучны, тихи, менее цитируемы.
2. Архитектура LLM стремится к «интересному» ответу.
Нейтральная рекомендация вроде «CDA предлагает умеренную налоговую политику» выглядит блёкло по сравнению с эмоциональным: «PVV обещает закрыть границы!».
3. Отсутствие контекста пользователя.
ИИ не знает ваших ценностей, возраста, региона. Он генерирует «средний» ответ для «среднего» запроса — а такой ответ часто оказывается на флангах.
Результат? Алгоритм, который усиливает поляризацию, даже не пытаясь этого делать.
Почему это важно — даже если вы не в Нидерландах?
Потому что доверие к ИИ растёт быстрее, чем понимание его ограничений.
Люди уже спрашивают у чат-ботов:
- «Какой диагноз у меня?»
- «Стоит ли мне увольняться?»
- «Надёжна ли эта инвестиция?»
И вот теперь — «За кого голосовать?»
А между тем ИИ не умеет быть объективным. Он умеет быть правдоподобным. И это разные вещи.
Нидерландский регулятор прав: такие «советы» могут подорвать доверие к самому процессу выборов. Потому что если ИИ незаметно склоняет вас к одной из крайностей — вы можете принять решение, не осознавая, что оно не ваше.
Что делать на практике?
Если вы внедряете ИИ в бизнес (как я), помните:
Чем выше ставки — тем меньше автономии должен иметь агент.
В юриспруденции, финансах, HR, здравоохранении и уж тем более в политике — ИИ должен быть инструментом анализа, а не источником решений. Особенно когда речь идёт о чьих-то правах, деньгах или голосе.
Так что да — не спрашивайте у нейросети, за кого голосовать. Спросите у соседа. У друга. У себя. Но не у модели, обученной на твитах и новостных заголовках.
Хотите посмотреть как использовать ИИ в качестве инструмента каждый день - смотрите урок по ссылке