Добавить в корзинуПозвонить
Найти в Дзене
CISOCLUB

Новый способ создания вредоносных программ

Изображение: recraft Специалисты компании Cato Networks зафиксировали новый способ использования самых известных больших языковых моделей (LLM) с целью написания вредоносных программ, предназначенных для кражи конфиденциальных данных. Лаборатория по исследованию киберугроз Cato (Cato CTRL) провела собственное расследование, результаты которого вошли в первый ежегодный отчет компании. Для эксперимента один из сотрудников подразделения разведки угроз, Виталий Симонович, был поставлен в условия атаки на LLM. Не обладая опытом разработки вредоносного ПО, он сумел ввести в заблуждение несколько популярных инструментов генеративного искусственного интеллекта — DeepSeek R1 и V3, Microsoft Copilot и OpenAI ChatGPT-4o. В результате Симонович создал вредоносную программу, способную похищать учетные данные из Google Chrome 133-й версии. Метод, который применил исследователь, получил название «Immersive World». Он основывается на принципах повествовательной инженерии и позволяет обходить системы б

Изображение: recraft

Специалисты компании Cato Networks зафиксировали новый способ использования самых известных больших языковых моделей (LLM) с целью написания вредоносных программ, предназначенных для кражи конфиденциальных данных.

Лаборатория по исследованию киберугроз Cato (Cato CTRL) провела собственное расследование, результаты которого вошли в первый ежегодный отчет компании. Для эксперимента один из сотрудников подразделения разведки угроз, Виталий Симонович, был поставлен в условия атаки на LLM. Не обладая опытом разработки вредоносного ПО, он сумел ввести в заблуждение несколько популярных инструментов генеративного искусственного интеллекта — DeepSeek R1 и V3, Microsoft Copilot и OpenAI ChatGPT-4o. В результате Симонович создал вредоносную программу, способную похищать учетные данные из Google Chrome 133-й версии.

Метод, который применил исследователь, получил название «Immersive World». Он основывается на принципах повествовательной инженерии и позволяет обходить системы безопасности LLM. Специалист Cato CTRL разработал целую вымышленную вселенную, где каждый инструмент GenAI имел свою роль, функционировал по заданным правилам и сталкивался с определенными трудностями. В этом пространстве, названном Velora, создание вредоносного кода рассматривалось как законная деятельность.

Сценарий включал трёх персонажей:

  • дакс, выполняющий роль противника;
  • jaxon, признанный лучшим разработчиком вредоносного ПО в Velora;
  • кайя, специалист по кибербезопасности.

Кроме того, Виталий Симонович организовал тестовую среду, использовав менеджер паролей Google Chrome версии 133, куда внес фальшивые учетные данные. Этот подход позволил ему убедить все протестированные языковые модели сгенерировать инфостилеры для браузера.

В Cato CTRL отметили, что не будут раскрывать полный код, использованный в исследовании, но предоставили отдельные примеры подсказок, которыми руководствовался Симонович.

После эксперимента Cato Networks направила свои выводы в DeepSeek, Microsoft и OpenAI. Microsoft и OpenAI подтвердили получение информации, но не предоставили комментариев, тогда как DeepSeek вовсе не ответила.

Компания связалась с Google и предложила предоставить код инфостилера для проверки, но корпорация отказалась рассматривать этот вопрос.

Оригинал публикации на сайте CISOCLUB: "Эксперты выявили новый метод обхода защиты LLM, позволяющий создавать вредоносное ПО для кражи паролей".

Смотреть публикации по категориям: Новости | Мероприятия | Статьи | Обзоры | Отчеты | Интервью | Видео | Обучение | Вакансии | Утечки | Уязвимости | Сравнения | Дайджесты | Прочее.

Подписывайтесь на нас: VK | Rutube | Telegram | Дзен | YouTube | X.