Найти в Дзене

"Совесть Кремниевой долины" продалась. Почему Anthropic больше не гарантирует безопасность ИИ

Компания Anthropic, которая долгие годы позиционировала себя как «совесть индустрии ИИ» и обещала выпускать только те модели, чья безопасность полностью подтверждена, тихо и официально отказалась от этого принципа. Почему? Потому что рынок, правительство и конкуренты не оставили выбора. В 2023 году Anthropic взяла на себя обязательство: никакого обучения новых моделей без стопроцентной уверенности в их безопасности. Это был их «Responsible Scaling Policy» (RSP) – документ, который устанавливал чёткие уровни риска и требования к тестированию. Но в феврале 2026 года главный научный сотрудник компании Джаред Каплан признал: этот подход больше не работает. Теперь Anthropic не будет останавливать разработку из-за недостатка гарантий безопасности. Вместо этого они просто обещают честно показывать результаты тестов корпоративным клиентам. А выводы пусть делают сами. Anthropic попала в поле зрения Министерства обороны США. Причина: компания отказывалась разрешать использование своих технологи
Оглавление

Компания Anthropic, которая долгие годы позиционировала себя как «совесть индустрии ИИ» и обещала выпускать только те модели, чья безопасность полностью подтверждена, тихо и официально отказалась от этого принципа.

Почему? Потому что рынок, правительство и конкуренты не оставили выбора.

Что произошло?

В 2023 году Anthropic взяла на себя обязательство: никакого обучения новых моделей без стопроцентной уверенности в их безопасности. Это был их «Responsible Scaling Policy» (RSP) – документ, который устанавливал чёткие уровни риска и требования к тестированию.

Но в феврале 2026 года главный научный сотрудник компании Джаред Каплан признал: этот подход больше не работает. Теперь Anthropic не будет останавливать разработку из-за недостатка гарантий безопасности. Вместо этого они просто обещают честно показывать результаты тестов корпоративным клиентам. А выводы пусть делают сами.

Два фронта давления

1. Пентагон и госзаказы

Anthropic попала в поле зрения Министерства обороны США. Причина: компания отказывалась разрешать использование своих технологий в системах массовой слежки и автономного оружия. Военные назвали это «риском для цепочки поставок». Если Anthropic не пойдёт на уступки, она может потерять не только контракты с государством, но и доступ к коммерческим партнёрам, работающим с Пентагоном.

2. Рыночная гонка

Пока Anthropic проверяла каждую модель на безопасность, конкуренты просто выпускали продукты. И рынок выбирал их. Как отмечает эксперт Майкл Беннетт из Университета Иллинойса:

«Если ты не бежишь – тебя обгоняют. А правительство не помогает – регулирования почти нет».

🧠 А что же безопасность?

Эксперты разделились:

  • Лили Ли, юрист по ИИ и основатель Metaverse Law, обеспокоена:
«Чем больше компания размывает публичные обещания безопасности, тем меньше ей доверяют. В долгосрочной перспективе это ударит по прибыли».
  • Джефф Поллард из Forrester считает иначе:
«Клиентам нужна скорость. Они хотят писать код быстрее, а безопасность – это приятный бонус, а не условие выживания».
  • Майкл Беннетт добавляет:
«Anthropic не становится злодеем. Они просто перестают быть единственным "полицейским" в индустрии, где правила никто не соблюдает».

Что дальше?

  • Anthropic продолжит развивать свои модели Claude (включая популярного агента Claude Code для разработчиков).
  • Возможно, следующий релиз будет ещё мощнее – и подстегнёт конкурентов ускоряться.
  • Полного отказа от этики не произошло: компания по-прежнему избегает самых опасных применений.
  • Но сам факт: добровольные ограничения в ИИ уходят в прошлое, пока регуляторы бездействуют.

А что с законами?

На федеральном уровне – тишина. При Трампе регулирование ИИ заморожено, штатам запрещено вводить свои законы. Единственное исключение – Колорадо, где с 1 февраля 2026 года действует закон, запрещающий дискриминацию при использовании ИИ в жилье, работе, медицине и финансах.

Итог

Anthropic первой из "этичных" игроков публично признала: в гонке ИИ безопасность – это роскошь, которую рынок пока не готов оплачивать.

Ссылка на первоисточник: https://aibusiness.com/generative-ai/anthropic-downgrades-its-ai-safety-policy

Вас также могут заинтересовать: