Изображение: recraft Специалисты компании Cato Networks зафиксировали новый способ использования самых известных больших языковых моделей (LLM) с целью написания вредоносных программ, предназначенных для кражи конфиденциальных данных. Лаборатория по исследованию киберугроз Cato (Cato CTRL) провела собственное расследование, результаты которого вошли в первый ежегодный отчет компании. Для эксперимента один из сотрудников подразделения разведки угроз, Виталий Симонович, был поставлен в условия атаки на LLM. Не обладая опытом разработки вредоносного ПО, он сумел ввести в заблуждение несколько популярных инструментов генеративного искусственного интеллекта — DeepSeek R1 и V3, Microsoft Copilot и OpenAI ChatGPT-4o. В результате Симонович создал вредоносную программу, способную похищать учетные данные из Google Chrome 133-й версии. Метод, который применил исследователь, получил название «Immersive World». Он основывается на принципах повествовательной инженерии и позволяет обходить системы б