Компания Anthropic, которая долгие годы позиционировала себя как «совесть индустрии ИИ» и обещала выпускать только те модели, чья безопасность полностью подтверждена, тихо и официально отказалась от этого принципа. Почему? Потому что рынок, правительство и конкуренты не оставили выбора. В 2023 году Anthropic взяла на себя обязательство: никакого обучения новых моделей без стопроцентной уверенности в их безопасности. Это был их «Responsible Scaling Policy» (RSP) – документ, который устанавливал чёткие уровни риска и требования к тестированию. Но в феврале 2026 года главный научный сотрудник компании Джаред Каплан признал: этот подход больше не работает. Теперь Anthropic не будет останавливать разработку из-за недостатка гарантий безопасности. Вместо этого они просто обещают честно показывать результаты тестов корпоративным клиентам. А выводы пусть делают сами. Anthropic попала в поле зрения Министерства обороны США. Причина: компания отказывалась разрешать использование своих технологи
"Совесть Кремниевой долины" продалась. Почему Anthropic больше не гарантирует безопасность ИИ
27 февраля27 фев
2 мин