Найти в Дзене
Нейрозона сегодня

OpenAI повышает уровень кибербезопасности своих моделей

Компания OpenAI планирует в ближайшие недели выпустить несколько обновлений своей модели кода Codex. В анонсе содержится предупреждение о возможностях модели. Генеральный директор Сэм Альтман объявил на X, что новые функции будут выпущены на следующей неделе. По словам Альтмана, эти обновления впервые поднимут модель до уровня кибербезопасности «Высокий» в собственной системе оценки рисков OpenAI. Выше этого уровня находится только «Критический». Согласно рекомендациям OpenAI, уровень «Высокий» указывает на то, что модель ИИ способна устранить существующие барьеры для кибератак, например, путем автоматизации атак на хорошо защищенные цели или автоматического обнаружения уязвимостей в системе безопасности. Эти возможности могут нарушить баланс между кибератакой и защитой и значительно увеличить количество кибератак. Уровень «Высокий» подразумевает, что модель устраняет существующие ограничения в масштабировании кибер-операций, автоматизируя сквозные атаки на защищенные цели или автомати

Компания OpenAI планирует в ближайшие недели выпустить несколько обновлений своей модели кода Codex. В анонсе содержится предупреждение о возможностях модели.

Генеральный директор Сэм Альтман объявил на X, что новые функции будут выпущены на следующей неделе. По словам Альтмана, эти обновления впервые поднимут модель до уровня кибербезопасности «Высокий» в собственной системе оценки рисков OpenAI. Выше этого уровня находится только «Критический».

Согласно рекомендациям OpenAI, уровень «Высокий» указывает на то, что модель ИИ способна устранить существующие барьеры для кибератак, например, путем автоматизации атак на хорошо защищенные цели или автоматического обнаружения уязвимостей в системе безопасности. Эти возможности могут нарушить баланс между кибератакой и защитой и значительно увеличить количество кибератак.

Уровень «Высокий» подразумевает, что модель устраняет существующие ограничения в масштабировании кибер-операций, автоматизируя сквозные атаки на защищенные цели или автоматическое обнаружение и использование уязвимостей.

По словам Альтмана, OpenAI планирует начать с ограничений на использование продукта, чтобы предотвратить применение моделей программирования в киберпреступлениях. Со временем компания переключится на ускорение защиты и помощь пользователям в устранении уязвимостей в системе безопасности.

Альтман утверждает, что быстрое внедрение существующих моделей ИИ имеет решающее значение для повышения безопасности программного обеспечения, учитывая, что в будущем появятся еще более мощные модели. На критическом уровне модель сможет без вмешательства человека находить и разрабатывать эксплойты нулевого дня для критически важных систем, а также разрабатывать новые стратегии кибератак.

OpenAI приостановит дальнейшую разработку, пока не будут определены стандарты защиты и контроля безопасности, соответствующие критическому уровню.

В общем, OpenAI, кажется, готовится выпустить что-то действительно мощное, и, возможно, немного пугающее. Надеемся, что они действительно знают, что делают, и что мир не рухнет в хаос из-за автоматизированных кибератак. Хотя, если честно, немного хаоса иногда не помешает.