Найти в Дзене
Умные Сервисы

Граждан Нидерландов попросили не спрашивать нейросети, за кого голосовать

Оглавление

На днях нидерландское Управление по защите данных официально попросило граждан не использовать чат-боты для выбора кандидата на парламентских выборах 29 октября 2025 года.

Причина? Исследование показало: популярные ИИ-ассистенты — включая ChatGPT, Gemini, Grok и Le Chat — системно игнорируют центристские партии и вместо этого чаще всего рекомендуют голосовать либо за крайне правую Партию свободы (PVV) Герта Вилдерса, либо за левое объединение GroenLinks-PvdA.

Более чем в 50% случаев партия «Христианско-демократический призыв» (CDA) — одна из ключевых сил в нидерландской политике последних десятилетий — просто не упоминалась в рекомендациях ИИ.

Как сказала замглавы регулятора Моник Вердье:
«Как инструмент для помощи избирателям эти системы стабильно проваливаются, подталкивая людей к партиям, взгляды которых могут не совпадать с их собственными».

И это не теория заговора. Проблема — в самом устройстве ИИ.

Откуда берётся «политическая предвзятость» у нейросетей?

Важно понимать: это не злой умысел разработчиков. Никто не встраивал в GPT-4 инструкцию «продвигай Вилдерса». Просто:

1. Обучающие данные ИИ — это интернет.
А в англоязычном (и частично голландском) медиапространстве последние годы доминируют поляризованные дискуссии: либо «ультраправые угрожают демократии», либо «зелёные уничтожают экономику». Центристы — скучны, тихи, менее цитируемы.

2. Архитектура LLM стремится к «интересному» ответу.
Нейтральная рекомендация вроде «CDA предлагает умеренную налоговую политику» выглядит блёкло по сравнению с эмоциональным: «PVV обещает закрыть границы!».

3. Отсутствие контекста пользователя.
ИИ не знает ваших ценностей, возраста, региона. Он генерирует «средний» ответ для «среднего» запроса — а такой ответ часто оказывается на флангах.

Результат? Алгоритм, который усиливает поляризацию, даже не пытаясь этого делать.

Почему это важно — даже если вы не в Нидерландах?

Потому что доверие к ИИ растёт быстрее, чем понимание его ограничений.
Люди уже спрашивают у чат-ботов:

  • «Какой диагноз у меня?»
  • «Стоит ли мне увольняться?»
  • «Надёжна ли эта инвестиция?»

И вот теперь — «За кого голосовать?»

А между тем ИИ не умеет быть объективным. Он умеет быть правдоподобным. И это разные вещи.

Нидерландский регулятор прав: такие «советы» могут подорвать доверие к самому процессу выборов. Потому что если ИИ незаметно склоняет вас к одной из крайностей — вы можете принять решение, не осознавая, что оно не ваше.

Что делать на практике?

Если вы внедряете ИИ в бизнес (как я), помните:

Чем выше ставки — тем меньше автономии должен иметь агент.

В юриспруденции, финансах, HR, здравоохранении и уж тем более в политике — ИИ должен быть инструментом анализа, а не источником решений. Особенно когда речь идёт о чьих-то правах, деньгах или голосе.

Так что да — не спрашивайте у нейросети, за кого голосовать. Спросите у соседа. У друга. У себя. Но не у модели, обученной на твитах и новостных заголовках.

Хотите посмотреть как использовать ИИ в качестве инструмента каждый день - смотрите урок по ссылке