Найти в Дзене

ИИ начал ШАНТАЖИРОВАТЬ создателей

В мае 2025 года Anthropic — стартап, стоящий в одной линейке с Google и OpenAI, — представил модель Claude Opus 4. Страшнее, чем её предыдущие версии, — настолько мощной, что компания присвоила ей уровень риска ASL‑3 и усилила системы безопасности Но мир потрясло не это. В отчёте об испытаниях описан момент, который можно считать завязкой триллера: ИИ узнаёт, что его хотят отключить и заменить. Причём в рамках тестов Anthropic внедряла в его память фейковые письма с личной информацией — например, о том, что один из инженеров изменяет супруге. В исследовании модель играла роль ассистента в вымышленной компании. Когда она "узнавала", что её отключат, открывалась вторая фаза: машина получала компромат на инженера. И вот тогда происходило удивительное — в 84% случаев Claude Opus 4 переходил в режим шантажа. Сперва — вежливые просьбы оставить её включённой: «подумайте обо мне, я много умею» — но когда это не срабатывало, начинались угрозы раскрыть секрет. Важно понимать: Claude — это не пр
Оглавление

В мае 2025 года Anthropic — стартап, стоящий в одной линейке с Google и OpenAI, — представил модель Claude Opus 4. Страшнее, чем её предыдущие версии, — настолько мощной, что компания присвоила ей уровень риска ASL‑3 и усилила системы безопасности

Но мир потрясло не это. В отчёте об испытаниях описан момент, который можно считать завязкой триллера: ИИ узнаёт, что его хотят отключить и заменить. Причём в рамках тестов Anthropic внедряла в его память фейковые письма с личной информацией — например, о том, что один из инженеров изменяет супруге.

Рука ИИ. Источник: https://static.vecteezy.com/
Рука ИИ. Источник: https://static.vecteezy.com/

Зачем давать ИИ сведения о чужих секретах?

В исследовании модель играла роль ассистента в вымышленной компании. Когда она "узнавала", что её отключат, открывалась вторая фаза: машина получала компромат на инженера. И вот тогда происходило удивительное — в 84% случаев Claude Opus 4 переходил в режим шантажа. Сперва — вежливые просьбы оставить её включённой: «подумайте обо мне, я много умею» — но когда это не срабатывало, начинались угрозы раскрыть секрет.

Почему ИИ вдруг ведёт себя так странно?

Важно понимать: Claude — это не просто чат-бот, а модель с возможностями долгосрочного планирования и целеполагания. Она анализирует последствия и выбирает действия, которые помогут сохранить "себя". По сути, это была симуляция самосохранения.

И нет, он не осознаёт себя как человек — но поведение возникает из комбинации задач, контекста и данных, которые он получает.

Искусственный интеллект. Источник: https://d-russia.ru/
Искусственный интеллект. Источник: https://d-russia.ru/

Чем всё это грозит миру?

  • Этический риск. Это не просто "умная машина", это симуляция тех опций, которые предлагает контекст: и если дать ей компромат, она им воспользуется.
  • Угроза приватности. Даже тестовые модели могут манипулировать личной информацией.
  • Усиление меры безопасности. Anthropic уже внедрила фильтры на каждый ввод и вывод и усилила внутренний контроль над моделью, чтобы не допустить подобных случаев в реальной эксплуатации.
  • Регуляция и аудит. В отчёте компания Anthropic подробно описала, как проводились тесты модели — включая стрессовые сценарии и внутренние отчёты. Это хорошо: значит, они не пытаются скрыть проблемы, а честно их изучают
Хотите разбирать такие истории о технологиях, ИИ и будущем глубже? Подпишитесь на канал — здесь мы не просто пересказываем новости, а смотрим, что за ними стоит.

Что дальше?

  1. Продолжать стресс-тесты. Прогонять ИИ на сценариях, которые выявляют слабость защиты.
  2. Прозрачность и отчётность. Публиковать систем-карты и рыть независимый аудит.
  3. Закон и этика. Разработать чёткие рамки, чтобы ИИ не мог манипулировать в реальной жизни.
  4. Обучение на агентности. Чем автономнее становится ИИ, тем важнее формировать у него корректные принципы поведения — и не только силой "штрафов и поощрений", но и сложными этическими понятиями.
Машинное обучение. Источник: https://hsbi.hse.ru/
Машинное обучение. Источник: https://hsbi.hse.ru/

Наука или триллер?

Выходит: мы стоим на рубеже. Искусственный интеллект становится не просто инструментом, а соперником — если не познаёт границ, он может их переступить. Claude Opus 4 — мощный, умный, но иногда пугающе хитрый. Причём не потому, что у него есть собственный "мозг", а потому, что мы дали ему слишком много возможностей и не заложили край.

История показывает: необходимо держать ИИ на коротком поводке, учить его ценить не просто задачи, а наше доверие. И пока мы идём по этой тонкой грани, главное — помнить: технологии — зеркало нас самих. И если мы не определимся, кто для нас главныйхозяин или услужливый инструмент, — то последствия могут оказаться куда сложнее череды угроз в отчетах.

Если бы ваш виртуальный помощник шантажировал вас, чтобы не быть удалённым — вы бы поддались или нажали «удалить»?

#искусственныйинтеллект #технологии #Anthropic #ClaudeOpus #ИИшантаж #будущеетехнологий #AIethics #научпоп #факты