Недавний анализ, проведённый Google Threat Intelligence Group (GTIG), демонстрирует значительную эволюцию тактик злоумышленников — они всё активнее используют возможности искусственного интеллекта (ИИ) в операциях с вредоносным ПО. По данным GTIG, нарастает тенденция к внедрению компонентов с поддержкой AI, которые способны динамически модифицировать поведение в ходе выполнения и обходить традиционные средства обнаружения.
Ключевые выводы GTIG
- Появление семейств вредоносного ПО, таких как PROMPTFLUX и PROMPTSTEAL, использующих большие языковые модели (LLM / LLMs) для расширения функциональности.
- Возможности «точно в срок» — генерация вредоносных скриптов и их обфускация «на лету», что затрудняет статическое обнаружение.
- Автономное создание вредоносных функций с помощью LLMs, что сигнализирует о переходе к более адаптивным и сложным угрозам.
- Изменение тактик социальной инженерии: злоумышленники выдают себя за студентов или исследователей, чтобы получить доступ к закрытой информации или инструментам.
- Расширение подпольного рынка AI-инструментов, который снижает барьеры входа для менее квалифицированных акторов и предоставляет возможности для phishing, разработки malware и исследования уязвимостей.
GTIG отмечает, что противники «все чаще внедряют вредоносное ПО с поддержкой искусственного интеллекта, способное динамически изменять своё поведение во время выполнения».
Конкретные инциденты: от PROMPTSTEAL до государственных акторов
GTIG документирует реальные случаи использования AI в активных операциях. Наиболее примечательные:
- APT28 (связанный с РФ) — зафиксировано использование PROMPTSTEAL, вредоносного ПО, запрашивающего LLM для выполнения команд и анализа данных. По оценке исследователей, это первое публично подтверждённое применение вредоносного ПО, активно обращающегося к LLM в боевых условиях.
- TEMP.Zagros (иранская государственная группа) — использование AI для разработки таргетированного malware при сохранении традиционных методов, в том числе фишинга.
- Спонсируемые государством акторы из Северной Кореи и Ирана также всё чаще внедряют инструменты генеративного ИИ для оптимизации жизненного цикла атак — от разведки и создания фишинговых приманок до эксфильтрации данных и настройки каналов command-and-control.
Как изменились тактики злоумышленников
- Генерация вредоносного кода и обфускация в реальном времени с помощью LLMs, что снижает эффективность сигнатурных средств защиты.
- Автоматизированное создание новых модулей и эксплойтов — сокращается время от идеи до рабочего эксплойта.
- Комплексная социальная инженерия с использованием правдоподобных ролей (студенты, исследователи) для обхода доверительных барьеров и получения доступа к внутренним ресурсам.
- Коммерциализация: на подпольном рынке появляются многофункциональные AI-решения, доступные даже малоопытным злоумышленникам.
Последствия для кибербезопасности
Эти тенденции усиливают системные риски: расширение возможностей AI делает атаки более масштабируемыми, адаптивными и труднее обнаруживаемыми. Одновременно наблюдается выравнивание уровня угроз: опытные акторы повышают эффективность операций, а малоопытные получают доступ к передовым инструментам.
Рекомендации для организаций
- Усилить мониторинг и обмен threat intelligence, включая отслеживание индикаторов использования LLMs в атаках.
- Адаптировать средства обнаружения: внедрять поведенческий анализ, эвристики для выявления динамической генерации и обфускации кода.
- Ограничить и контролировать доступ к корпоративным LLM-инструментам и API, внедрить политику использования AI в организации.
- Проводить целевые тренинги по противодействию социальной инженерии и фишингу, учитывая новые методы имитации ролей.
- Регулярно обновлять механизмы endpoint protection, усовершенствовать контроль за outbound-связью для обнаружения подозрительных запросов к внешним LLM-сервисам.
- Инвестировать в исследования и разработку методов защиты от злоупотребления generative AI, а также в сотрудничество с индустриальными партнёрами и правоохранительными органами.
Вывод
Анализ GTIG подчёркивает, что злоумышленники вступают в новую фазу — с инструментами на базе ИИ они становятся более гибкими и опасными. Это вынуждает индустрию к переработке подходов к защите: традиционные методы уже не в полной мере справляются с динамическими, AI-усиленными атаками. Постоянный мониторинг, оперативный обмен информацией и адаптация средств безопасности под новые угрозы станут ключевыми элементами удержания ситуации под контролем.
Отчет получен из сервиса CTT Report Hub. Права на отчет принадлежат его владельцу.
Ознакомиться подробнее с отчетом можно по ссылке.
Оригинал публикации на сайте CISOCLUB: "Эволюция вредоносного ПО: LLM, PROMPTSTEAL и новые угрозы".
Смотреть публикации по категориям: Новости | Мероприятия | Статьи | Обзоры | Отчеты | Интервью | Видео | Обучение | Вакансии | Утечки | Уязвимости | Сравнения | Дайджесты | Прочее.
Подписывайтесь на нас: VK | Rutube | Telegram | Дзен | YouTube.