Добавить в корзинуПозвонить
Найти в Дзене

OpenAI признала: проблема prompt injection нерешаема

OpenAI признала, что полностью защититься от prompt injection — атак через подставные инструкции в тексте — возможно не получится никогда. Компания заявила, что “оптимистично” смотрит на возможность со временем снизить риски подобных атак. OpenAI выпустила обновление безопасности для браузерного агента в ChatGPT Atlas. Оно включает новую модель, обученную противодействовать атакам, и улучшенные защитные механизмы. Обновление появилось после обнаружения нового класса атак prompt injection благодаря внутреннему автоматическому тестированию OpenAI. Агентский режим ChatGPT Atlas — одна из самых продвинутых функций OpenAI. Этот агент может просматривать сайты и имитировать действия пользователя: кликать, печатать. Из-за этого он становится легкой мишенью для атак через… Подробнее

OpenAI признала: проблема prompt injection нерешаема

OpenAI признала, что полностью защититься от prompt injection — атак через подставные инструкции в тексте — возможно не получится никогда. Компания заявила, что “оптимистично” смотрит на возможность со временем снизить риски подобных атак.

OpenAI выпустила обновление безопасности для браузерного агента в ChatGPT Atlas. Оно включает новую модель, обученную противодействовать атакам, и улучшенные защитные механизмы. Обновление появилось после обнаружения нового класса атак prompt injection благодаря внутреннему автоматическому тестированию OpenAI.

Агентский режим ChatGPT Atlas — одна из самых продвинутых функций OpenAI. Этот агент может просматривать сайты и имитировать действия пользователя: кликать, печатать. Из-за этого он становится легкой мишенью для атак через…

Подробнее