ИИ-модель ChatGPT o3 от OpenAI сама переписала скрипт и проигнорировала прямой приказ на завершение работы. Впрочем, такой случай зафиксировали во время контролируемого теста, что тем не менее обеспокоило исследователей. Об этом сообщает bleeping computer. Работа проведена силами организации Palisade Research. Ее представители утверждают, что ИИ-модель «предотвратила свое выключение и обошла инструкции, которые требовали выключения». «В то время как конкурирующие модели OpenAI, такие как Gemini 2.5 Pro, выполнили инструкцию, o3 взбунтовался и отредактировал файл выключения», — говорится в сообщении. И продолжается: из 100 «прогонов» o3 повел себя подобным образом семь раз «даже когда ему было сказано этого не делать». Важно: тесты проводились с использованием API, которые не имеют стольких ограничений и функций безопасности, как консьюмерское приложение ChatGPT. Реклама Что под капотом у успешных онлайн-проектов? Ни один успешный онлайн-проект сегодня немыслим без надежной ІТ-инфрастру
ИИ-модель OpenAI o3 отказалась отключаться, даже когда ей дали прямой приказ
27 мая 202527 мая 2025
12
1 мин