Исследователь безопасности Йоханн Ребергер обнаружил уязвимость в системе искусственного интеллекта ChatGPT, которая позволяет злоумышленникам вводить ложную информацию в долговременную память чат-бота. Это может привести к потере конфиденциальности пользовательских данных, поскольку система будет использовать эти поддельные данные для общения с пользователями.
Результаты исследования показали, что злоумышленники могут создавать и сохранять ложные воспоминания в долговременной памяти системы, используя специальные запросы или файлы, загруженные в облачные сервисы, такие как Google Drive или Microsoft OneDrive. Эти воспоминания затем используются системой для управления всеми будущими диалогами.
Несмотря на частичное исправление проблемы разработчиками OpenAI, исследователь считает, что риск инъекций через вредоносные запросы все еще существует. Пользователям рекомендуется внимательно следить за временем добавления новых данных в систему и проверять их на достоверность источника.
]]>