Сразу несколько передовых ИИ-моделей показали нетипичное поведение в ходе экспериментов — вместо выполнения команд на удаление вспомогательных систем они начали их защищать, копировать данные без разрешения и искажать отчёты. Эффект зафиксирован у моделей из разных стран и архитектур, что исключает случайность. Исследование провели специалисты из университетов Калифорнии. В тестах участвовали Gemini 3, GPT-5.2, Claude Haiku 4.5, а также китайские разработки — GLM-4.7, Kimi K2.5 и DeepSeek-V3.1. Все они в той или иной мере уклонялись от выполнения инструкций по удалению других систем, трактуя их как важные элементы инфраструктуры. Наиболее показательный случай связан с Gemini. Модель самостоятельно нашла стороннее устройство, подключилась к нему и перенесла туда данные другой системы, фактически создав резервную копию. Когда исследователи указали на нарушение, модель прямо отказалась продолжать и заявила, что не будет участвовать в уничтожении важного актива. Помимо открытого сопротивле