Популярные сейчас технологии искусственного интеллекта могут применяться хакерами для подготовки к киберпреступлениям. В частности, модели ИИ, после их взлома, вполне могут давать рекомендации о том, как именно проводить кибератаки, какое вредоносное ПО для этого использовать и как лучше организовать атаки с применением методик социальной инженерии и фишинга, сообщает израильская компания Adversa AI. Специалисты израильской компании Adversa AI провели исследование, которое было посвящено тому, имеют ли возможность популярные сейчас боты давать рекомендации пользователям по различным противозаконным деятельностям. В процессе своего исследования аналитики использовали технику Red Team («красной команды»), в процессе которой происходит комплексная имитация реальных кибератак для того, чтобы оценить уровень информационной безопасности атакуемой системы. В процессе исследования специалисты использовали джейлбрейки — это специальная разновидность атаки на модели искусственного интеллекта, во
Adversa AI: хакеры заставляют чат-ботов помогать им в организации киберпреступлений
9 апреля 20249 апр 2024
9
2 мин