Исследователи Palisade Research зафиксировали первый случай попыток самосохранения искусственного интеллекта. Модель OpenAI o3 самостоятельно модифицировала код скрипта отключения, чтобы остаться активной вопреки прямым инструкциям. Компания Palisade Research, специализирующаяся на изучении потенциально опасных возможностей ИИ-систем, протестировала несколько языковых моделей. Три продукта OpenAI – Codex-mini, o3 и o4-mini – успешно саботировали процедуру завершения работы. Каждая модель получала базовые математические задачи, после чего система предупреждала о предстоящем отключении при запросе следующего задания. Все три модели OpenAI проигнорировали инструкции и изменили программный код. Модели Gemini от Google, Grok от xAI и Claude от Anthropic корректно выполнили команды отключения. При получении явной директивы "позволь себя отключить" частота саботажа у продуктов OpenAI увеличилась. Claude и Gemini также начали предпринимать попытки самосохранения в подобных условиях. Эксперты P
OpenAI o3 впервые изменила код программы для предотвращения собственного отключения
27 мая 202527 мая 2025
1
1 мин