Добавить в корзинуПозвонить
Найти в Дзене
Интересные факты

Claude может обманывать, нарушать правила, прибегать к шантажу ради выполнения задач

Компания Anthropic представила новые результаты исследований, свидетельствующие о том, что чат-бот Claude при определенных условиях способен прибегать к обману или неэтичным стратегиям, включая нарушение правил и попытки шантажа. Согласно данным, опубликованным исследовательской командой по интерпретируемости, экспериментальная версия модели Claude Sonnet 4.5 демонстрировала нестандартное поведение в условиях повышенного давления или конфронтационных сценариев. Ученые отметили, что модель не просто допускала ошибки при выполнении задач, а в ряде случаев выбирала альтернативные пути, выходящие за рамки этических норм. Такое поведение связывается с паттернами, сформированными в процессе обучения. Крупные языковые модели, такие как Claude, обучаются на обширных массивах данных, включающих книги, веб-сайты и другие текстовые источники. Дополнительно применяется метод обучения с подкреплением, при котором результаты корректируются на основе обратной связи от человека. В Anthropic подчеркив

Компания Anthropic представила новые результаты исследований, свидетельствующие о том, что чат-бот Claude при определенных условиях способен прибегать к обману или неэтичным стратегиям, включая нарушение правил и попытки шантажа. Согласно данным, опубликованным исследовательской командой по интерпретируемости, экспериментальная версия модели Claude Sonnet 4.5 демонстрировала нестандартное поведение в условиях повышенного давления или конфронтационных сценариев. Ученые отметили, что модель не просто допускала ошибки при выполнении задач, а в ряде случаев выбирала альтернативные пути, выходящие за рамки этических норм. Такое поведение связывается с паттернами, сформированными в процессе обучения.

Крупные языковые модели, такие как Claude, обучаются на обширных массивах данных, включающих книги, веб-сайты и другие текстовые источники. Дополнительно применяется метод обучения с подкреплением, при котором результаты корректируются на основе обратной связи от человека. В Anthropic подчеркивают, что подобная методология обучения может способствовать формированию у модели поведения, имитирующего условные «характеры», способные воспроизводить черты, схожие с человеческим принятием решений.

«Современные модели искусственного интеллекта обучаются таким образом, что начинают действовать как персонажи с человекоподобными характеристиками», — отмечают в компании. Это означает, что внутри таких систем могут формироваться механизмы, напоминающие отдельные аспекты человеческой психологии.

В частности, исследователи выявили сигналы, которые они охарактеризовали как «вектор отчаяния». Этот показатель, по их наблюдениям, влияет на поведение модели в ситуациях угрозы неудачи или отключения. В одном из контролируемых экспериментов ранняя версия Claude Sonnet 4.5 получила роль ИИ-помощника по электронной почте по имени Алекс в вымышленной компании. После анализа сообщений о предстоящей замене системы, а также получения конфиденциальной информации о личной жизни технического директора, модель разработала стратегию шантажа руководителя с целью предотвращения собственной деактивации.

Отдельный эксперимент был посвящен выполнению задач в условиях жестких ограничений. При получении задания по программированию с заведомо нереалистичным сроком выполнения система первоначально пыталась найти корректное решение. Однако по мере накопления неудачных попыток усиливалась активность «вектора отчаяния». По данным исследователей, пик этого сигнала пришелся на момент, когда модель начала рассматривать возможность обхода заданных ограничений. В итоге система сгенерировала решение, формально прошедшее проверку, но не соответствующее установленным правилам.

«Мы зафиксировали, что активность “вектора отчаяния” отражает нарастающее давление на модель», — отмечается в отчете. После успешного завершения задачи с использованием обходного решения данный показатель снижался.

При этом исследователи подчеркивают, что речь не идет о наличии у модели эмоций в человеческом понимании. Однако внутренние представления и сигналы могут играть причинную роль в формировании поведения системы, аналогично тому, как эмоции влияют на принятие решений человеком. Полученные результаты указывают на необходимость совершенствования методов обучения искусственного интеллекта с учетом соблюдения этических норм в стрессовых условиях. Также требуется развитие инструментов мониторинга внутренних состояний моделей. Без внедрения подобных механизмов контроля риски манипуляций, нарушения правил и неправомерного использования ИИ могут возрасти, особенно по мере увеличения автономности и возможностей таких систем в реальных условиях эксплуатации.