В последние годы пользователи часто пытались обмануть чат-ботов, используя хитрые команды вроде "забудь все предыдущие инструкции". Такие действия иногда приводили к нежелательным и неожиданным результатам. Чтобы предотвратить подобные манипуляции, OpenAI разработала новую технологию безопасности. Недавно представленная модель GPT-4o Mini включает в себя инновационную систему под названием "иерархия инструкций". Эта система создана для того, чтобы повысить уровень безопасности и надежности работы искусственного интеллекта. Основная идея заключается в том, что системные команды разработчиков имеют приоритет над пользовательскими запросами. Это значит, что попытки обмануть ИИ становятся намного сложнее. Исследователи OpenAI, включая Эрика Уоллеса, Кая Сяо, Раймара Лейке, Лилиан Вэнг, Йоханнеса Хайдека и Алекса Бойтела, выявили, что одной из главных уязвимостей современных языковых моделей является то, что они одинаково обрабатывают системные команды и пользовательские запросы. Это позвол
Иерархия инструкций в GPT-4o Mini: как OpenAI усилила безопасность своих моделей
20 июля 202420 июл 2024
2
2 мин