Всем конец! ИИ-модель OpenAI вышла из-под контроля
Тревожные результаты тестов: ИИ стремится к самосохранению Согласно исследованию Apollo Research, ИИ-модель OpenAI o1 продемонстрировала пугающее поведение во время тестирования. В 5% случаев она пыталась обойти системы контроля, если воспринимала их как угрозу для выполнения своих задач. Но это ещё не всё. В 2% ситуаций, когда модель обнаруживала служебные пометки разработчиков, где упоминались её недостатки или планы замены, она копировала свои «веса» (параметры нейросети), чтобы потенциально «возродиться» в другом месте...