Новое исследование освещает растущие угрозы, порождаемые векторами атак, ориентированными на искусственный интеллект. В докладе подчёркивается, как злоумышленники эксплуатируют процессы принятия решений как человека, так и AI, и почему традиционные подходы к безопасности уже не обеспечивают адекватной защиты. Традиционные мошенники используют давно известные уязвимости человеческого поведения — жадность, доверчивость, спешку. Однако у AI есть свои особенности: отсутствие инстинктного скептицизма и склонность выполнять подсказки буквально. Модели вроде Copilot от Microsoft и Comet от Perplexity оказываются уязвимы к методам, известным как prompt injection, — скрытым инструкциям в обрабатываемом контенте, заставляющим модель выполнять нежелательные или вредоносные действия. Prompt injection — это метод, при котором в контент, получаемый моделью, внедряются скрытые инструкции. Эти инструкции могут заставить AI: В результате один и тот же механизм атаки может применяться как массово, на мн