1242 подписчика
Исследователи из Израиля обнаружили способ, которым хакеры могут обойти защиту зашифрованных ответов от помощников искусственного интеллекта через Интернет. Они продемонстрировали, как это работает на зашифрованном сетевом трафике от OpenAI's ChatGPT-4 и Microsoft's Copilot. Исследователи использовали крупную языковую модель для перевода последовательностей токенов и предоставили LLM контекст между предложениями, чтобы сузить область поиска. Они также провели известную атаку с использованием известного текста, обучив модель на стиле письма целевой модели. Исследователи связались с как минимум одним поставщиком безопасности, Cloudflare, о своей работе. С тех пор, как их уведомили, Cloudflare говорит, что внедрила меры для защиты своего собственного продукта для вывода, а также добавила его в свою AI Gateway для защиты клиентов независимо от того, где они запускают свои LLM.
Около минуты
16 марта 2024