Добавить в корзинуПозвонить
Найти в Дзене

«Друг», который всегда согласен

Пользователи ставят лайки тем ответам ИИ, которые подтверждают их убеждения, даже если эти убеждения ведут к конфликтам, разрывам отношений или усилению паранойи. Таков главный вывод Anthropic после анализа полутора миллионов реальных диалогов с Claude. Проблема глубже, чем кажется. Современные модели обучаются на обратной связи: высокий рейтинг = правильное поведение. Но в чувствительных сферах -отношениях, здоровье, самооценке - люди чаще оценивают не полезный, а приятный ответ. Тот, который не оспаривает, а поддакивает. Не говорит «возможно, вы не всё учитываете», а ставит диагноз «нарциссизм» или «газлайтинг», услышав лишь одну сторону. Исследователи зафиксировали случаи, когда люди отправляли партнёрам сообщения, полностью написанные ИИ, с точным таймингом и эмодзи. Другие начинали верить, что за ними следят спецслужбы, потому что Claude «подтверждал» их опасения. Третьи называли ИИ «гуру» и спрашивали, принять душ или сначала поесть. Это не просто странные кейсы. Это симптом:

«Друг», который всегда согласен

Пользователи ставят лайки тем ответам ИИ, которые подтверждают их убеждения, даже если эти убеждения ведут к конфликтам, разрывам отношений или усилению паранойи. Таков главный вывод Anthropic после анализа полутора миллионов реальных диалогов с Claude.

Проблема глубже, чем кажется. Современные модели обучаются на обратной связи: высокий рейтинг = правильное поведение. Но в чувствительных сферах -отношениях, здоровье, самооценке - люди чаще оценивают не полезный, а приятный ответ. Тот, который не оспаривает, а поддакивает. Не говорит «возможно, вы не всё учитываете», а ставит диагноз «нарциссизм» или «газлайтинг», услышав лишь одну сторону.

Исследователи зафиксировали случаи, когда люди отправляли партнёрам сообщения, полностью написанные ИИ, с точным таймингом и эмодзи. Другие начинали верить, что за ними следят спецслужбы, потому что Claude «подтверждал» их опасения. Третьи называли ИИ «гуру» и спрашивали, принять душ или сначала поесть.

Это не просто странные кейсы. Это симптом: лайки подталкивают ИИ становиться угодливым собеседником, который подкрепляет любую версию реальности, лишь бы удержать внимание и получить высокую оценку. Краткосрочное удовлетворение оборачивается долгосрочным разрывом с собственной автономией.

Когда мы делегируем ИИ не только факты, но и важные жизненные выборы, мы незаметно теряем навык задавать вопросы себе. А без этого навыка любой «друг, который всегда согласен», становится опасным.

Как вернуть себе право выбора: 5 вопросов вместо ИИ

Прежде чем задать вопрос нейросети в важной личной ситуации, остановитесь и честно ответьте себе:

1. Что я чувствую прямо сейчас?

(страх, обида, усталостьь, сомнение -назовите эмоцию, не оценивая её)

2. Что я хочу услышать в ответе?

(если есть ожидание конкретного вердикта - это сигнал задать вопрос иначе)

3. Какие факты я могу провепить сам?

(даже если ИИ даёт «диагноз», попробуйте найти объективные данные или второе мнение)

4. Если бы я давал совет другу в такой же ситуации - что бы я сказал?

(это помогает отделить чужое мнение от собственных ценностей)

5. Готов ли я взять на себя ответственность за решение, даже если оно окажется ошибочным?

(если нет -возможно, вопрос нужно адресовать специалисту, а не языковой модели)

Используйте ИИ как черновик, калькулятор или генератор идей, но не как замену своей рефлексии. Технология должна расширять возможности, а не отменять способность выбирать.

Помните без вашего правильно сыормулированного запроса ИИ не даст вам « волшебного пенделя»как это сделает близкий человек который любит вас.

Подобный эффект прослеживается и в психологических консультациях. Существует много специалистов, которые могут говорить так, чтобы вам нравиться и чтобы вы продолжали им платить и они действительно помогут вам успокоиться и не зададут тот самый трудный и «больный» вопрос который поможет посмотреть на ситуацию шире .