OpenAI признала, что полностью защититься от prompt injection — атак через подставные инструкции в тексте — возможно не получится никогда. Компания заявила, что “оптимистично” смотрит на возможность со временем снизить риски подобных атак. OpenAI выпустила обновление безопасности для браузерного агента в ChatGPT Atlas. Оно включает новую модель, обученную противодействовать атакам, и улучшенные защитные механизмы. Обновление появилось после обнаружения нового класса атак prompt injection благодаря внутреннему автоматическому тестированию OpenAI. Агентский режим ChatGPT Atlas — одна из самых продвинутых функций OpenAI. Этот агент может просматривать сайты и имитировать действия пользователя: кликать, печатать. Из-за этого он становится легкой мишенью для атак через… Подробнее
OpenAI признала: проблема prompt injection нерешаема
23 декабря 202523 дек 2025
~1 мин