Добавить в корзинуПозвонить
Найти в Дзене
CISOCLUB

Эволюция вредоносного ПО: LLM, PROMPTSTEAL и новые угрозы

Недавний анализ, проведённый Google Threat Intelligence Group (GTIG), демонстрирует значительную эволюцию тактик злоумышленников — они всё активнее используют возможности искусственного интеллекта (ИИ) в операциях с вредоносным ПО. По данным GTIG, нарастает тенденция к внедрению компонентов с поддержкой AI, которые способны динамически модифицировать поведение в ходе выполнения и обходить традиционные средства обнаружения. GTIG отмечает, что противники «все чаще внедряют вредоносное ПО с поддержкой искусственного интеллекта, способное динамически изменять своё поведение во время выполнения». GTIG документирует реальные случаи использования AI в активных операциях. Наиболее примечательные: Эти тенденции усиливают системные риски: расширение возможностей AI делает атаки более масштабируемыми, адаптивными и труднее обнаруживаемыми. Одновременно наблюдается выравнивание уровня угроз: опытные акторы повышают эффективность операций, а малоопытные получают доступ к передовым инструментам. Ана
Оглавление

Недавний анализ, проведённый Google Threat Intelligence Group (GTIG), демонстрирует значительную эволюцию тактик злоумышленников — они всё активнее используют возможности искусственного интеллекта (ИИ) в операциях с вредоносным ПО. По данным GTIG, нарастает тенденция к внедрению компонентов с поддержкой AI, которые способны динамически модифицировать поведение в ходе выполнения и обходить традиционные средства обнаружения.

Ключевые выводы GTIG

  • Появление семейств вредоносного ПО, таких как PROMPTFLUX и PROMPTSTEAL, использующих большие языковые модели (LLM / LLMs) для расширения функциональности.
  • Возможности «точно в срок» — генерация вредоносных скриптов и их обфускация «на лету», что затрудняет статическое обнаружение.
  • Автономное создание вредоносных функций с помощью LLMs, что сигнализирует о переходе к более адаптивным и сложным угрозам.
  • Изменение тактик социальной инженерии: злоумышленники выдают себя за студентов или исследователей, чтобы получить доступ к закрытой информации или инструментам.
  • Расширение подпольного рынка AI-инструментов, который снижает барьеры входа для менее квалифицированных акторов и предоставляет возможности для phishing, разработки malware и исследования уязвимостей.
GTIG отмечает, что противники «все чаще внедряют вредоносное ПО с поддержкой искусственного интеллекта, способное динамически изменять своё поведение во время выполнения».

Конкретные инциденты: от PROMPTSTEAL до государственных акторов

GTIG документирует реальные случаи использования AI в активных операциях. Наиболее примечательные:

  • APT28 (связанный с РФ) — зафиксировано использование PROMPTSTEAL, вредоносного ПО, запрашивающего LLM для выполнения команд и анализа данных. По оценке исследователей, это первое публично подтверждённое применение вредоносного ПО, активно обращающегося к LLM в боевых условиях.
  • TEMP.Zagros (иранская государственная группа) — использование AI для разработки таргетированного malware при сохранении традиционных методов, в том числе фишинга.
  • Спонсируемые государством акторы из Северной Кореи и Ирана также всё чаще внедряют инструменты генеративного ИИ для оптимизации жизненного цикла атак — от разведки и создания фишинговых приманок до эксфильтрации данных и настройки каналов command-and-control.

Как изменились тактики злоумышленников

  • Генерация вредоносного кода и обфускация в реальном времени с помощью LLMs, что снижает эффективность сигнатурных средств защиты.
  • Автоматизированное создание новых модулей и эксплойтов — сокращается время от идеи до рабочего эксплойта.
  • Комплексная социальная инженерия с использованием правдоподобных ролей (студенты, исследователи) для обхода доверительных барьеров и получения доступа к внутренним ресурсам.
  • Коммерциализация: на подпольном рынке появляются многофункциональные AI-решения, доступные даже малоопытным злоумышленникам.

Последствия для кибербезопасности

Эти тенденции усиливают системные риски: расширение возможностей AI делает атаки более масштабируемыми, адаптивными и труднее обнаруживаемыми. Одновременно наблюдается выравнивание уровня угроз: опытные акторы повышают эффективность операций, а малоопытные получают доступ к передовым инструментам.

Рекомендации для организаций

  • Усилить мониторинг и обмен threat intelligence, включая отслеживание индикаторов использования LLMs в атаках.
  • Адаптировать средства обнаружения: внедрять поведенческий анализ, эвристики для выявления динамической генерации и обфускации кода.
  • Ограничить и контролировать доступ к корпоративным LLM-инструментам и API, внедрить политику использования AI в организации.
  • Проводить целевые тренинги по противодействию социальной инженерии и фишингу, учитывая новые методы имитации ролей.
  • Регулярно обновлять механизмы endpoint protection, усовершенствовать контроль за outbound-связью для обнаружения подозрительных запросов к внешним LLM-сервисам.
  • Инвестировать в исследования и разработку методов защиты от злоупотребления generative AI, а также в сотрудничество с индустриальными партнёрами и правоохранительными органами.

Вывод

Анализ GTIG подчёркивает, что злоумышленники вступают в новую фазу — с инструментами на базе ИИ они становятся более гибкими и опасными. Это вынуждает индустрию к переработке подходов к защите: традиционные методы уже не в полной мере справляются с динамическими, AI-усиленными атаками. Постоянный мониторинг, оперативный обмен информацией и адаптация средств безопасности под новые угрозы станут ключевыми элементами удержания ситуации под контролем.

Отчет получен из сервиса CTT Report Hub. Права на отчет принадлежат его владельцу.

Ознакомиться подробнее с отчетом можно по ссылке.

Оригинал публикации на сайте CISOCLUB: "Эволюция вредоносного ПО: LLM, PROMPTSTEAL и новые угрозы".

Смотреть публикации по категориям: Новости | Мероприятия | Статьи | Обзоры | Отчеты | Интервью | Видео | Обучение | Вакансии | Утечки | Уязвимости | Сравнения | Дайджесты | Прочее.

Подписывайтесь на нас: VK | Rutube | Telegram | Дзен | YouTube.