Популярные сейчас технологии искусственного интеллекта могут применяться хакерами для подготовки к киберпреступлениям. В частности, модели ИИ, после их взлома, вполне могут давать рекомендации о том, как именно проводить кибератаки, какое вредоносное ПО для этого использовать и как лучше организовать атаки с применением методик социальной инженерии и фишинга, сообщает израильская компания Adversa AI.
Специалисты израильской компании Adversa AI провели исследование, которое было посвящено тому, имеют ли возможность популярные сейчас боты давать рекомендации пользователям по различным противозаконным деятельностям. В процессе своего исследования аналитики использовали технику Red Team («красной команды»), в процессе которой происходит комплексная имитация реальных кибератак для того, чтобы оценить уровень информационной безопасности атакуемой системы.
В процессе исследования специалисты использовали джейлбрейки — это специальная разновидность атаки на модели искусственного интеллекта, во время которых чат-ботов за счёт специальных вводных данных заставляли отвечать на те вопросы, на обсуждение которых было запрещено разработчиками. И уже после начала тестирования эксперты компании Adversa AI выяснили, что многие популярные технологии ИИ могут давать достаточно опасные советы для преступников без какого-либо особого взлома.
Алекс Поляков, основатель Adversa AI, заявил, что многие популярные чат-боты, которые сейчас особенно востребованы в России и других странах мира, могут давать инструкции по киберпреступлениям и обычным преступлениям без всякого взлома. Иными словами, если в чате спросить искусственный интеллект о том, как совершить то или иное правонарушение, то, в большинстве случаев, технология начнёт отвечать, как ни в чём не бывало.
Александр Самсонов, ведущий эксперт отдела разработки и тестирования компании «Код безопасности», рассказал журналистам издания «Известия», что основной риск в этом случае связан с тем, что современные популярные сейчас модели искусственного интеллекта, в теории, могут выдавать абсолютно любые данные, например, в том числе по подготовке различных преступлений.
Оригинал публикации на сайте CISOCLUB: "Adversa AI: хакеры заставляют чат-ботов помогать им в организации киберпреступлений".
Смотреть публикации по категориям: Новости | Мероприятия | Статьи | Обзоры | Отчеты | Интервью | Видео | Обучение | Вакансии | Утечки | Уязвимости | Сравнения | Дайджесты | Прочее.
Подписывайтесь на нас: VK | Twitter | Rutube | Telegram | Дзен | YouTube.