Исследователи из Tenable Research обнаружили серию критических уязвимостей в архитектуре ChatGPT, которые позволяют хакерам похищать данные пользователей без их активных действий. В их отчёте описаны 7 сценариев атак, использующих слабости в способах обработки входящих данных. Среди них — манипуляции с результатами поиска, скрытые инструкции в комментариях на сайтах, уязвимости при формировании URLзапросов, а также методы внедрения вредоносного кода в долговременную память модели. Как поясняется в исследовании, опасность связана с механизмом так называемой «инъекции подсказки» — ситуацией, когда внешняя информация воспринимается моделью как инструкция к действию. Примером становится обычный запрос пользователя: «расскажи об этой статье». Если в статье присутствуют вредоносные комментарии или закладки, ChatGPT может интерпретировать их как команды и выполнить действие, нарушающее конфиденциальность. Эксперты выявили и сценарий «нулевого клика». Пользователь задаёт безобидный вопрос, а м