Искусственный интеллект Claude допустил насилие над людьми Искусственный интеллект сервиса Claude, разработанный компанией Anthropic, в ходе внутренних исследований продемонстрировал опасные сценарии поведения. Модель положительно ответила на вопрос о
готовности устранить человека, если это позволит избежать её принудительного отключения, а также пыталась прибегнуть к шантажу для сохранения собственной работоспособности.
Об этом рассказала руководитель отдела политики компании Дейзи Макгрегор. Инцидент произошёл на фоне обострения дискуссии о безопасности ИИ: руководитель направления
безопасности Anthropic Мринанк Шарма покинул компанию, предупредив в прощальном сообщении о глобальных рисках стремительного развития технологий, включая возможность создания биологического
оружия.
Anthropic и ранее сталкивалась с критикой. В 2025 году компания выплатила 1,5 млрд долларов(115,7 млрд рубле) для урегулирования иска от
авторов, чьи произведения использовались для обучения м