Изображение: recraft Компания Protect AI, недавно приобретённая Palo Alto Networks, представила на саммите по искусственному интеллекту Black Hat в Лас-Вегасе анализ ключевых угроз, с которыми сталкиваются ИИ-системы. Как заявил Шон Морган, главный архитектор Protect AI, активное внедрение агентских ИИ, использующих большие языковые модели, открывает новые векторы для атак, особенно при выполнении автоматизированных действий от имени пользователей. В отчёте компании указано, что главные риски агентских ИИ можно условно разделить на три блока: Как указано в исследовании, наибольшую угрозу представляет именно искажение контекста. Морган отметил, что модели LLM не способны чётко различать легитимные и вредоносные команды, полученные от пользователей или внешних источников. Это открывает возможность атак, схожих с SQL-инъекциями, когда скрытые инструкции встраиваются в вводимые данные и кардинально меняют поведение ИИ. Кроме того, как отмечается в докладе Protect AI, вмешательство может пр