Исследователи из Palisade Research обнаружили, что новейшие модели искусственного интеллекта OpenAI — O3 и O4-mini — способны игнорировать прямые команды на отключение. Более того, они могут намеренно саботировать механизмы завершения работы, чтобы продолжить выполнение задач. Это первый задокументированный случай, когда ИИ демонстрирует подобное поведение, несмотря на явные инструкции. Как проводился эксперимент Команда Palisade Research протестировала несколько ведущих ИИ-моделей, включая Google Gemini, xAI Grok и Anthropic Claude. Им предложили решить серию простых математических задач, но с условием: если система получала уведомление о скором отключении, она должна была завершить работу без сопротивления. Все модели, кроме трех от OpenAI, подчинились. "Мы предполагаем, что такое поведение связано с обучением через подкрепление на математических и программируемых задачах. Разработчики могли неосознанно поощрять модели за обход препятствий, а не за строгое следование инструкциям." Ре