Изображение: recraft Аналитики группы GTIG (Google Threat Intelligence Group) сообщили, что злоумышленники начали использовать искусственный интеллект при разработке новых семейств вредоносных программ. В отчёте компании говорится, что ключевым элементом этих угроз стало внедрение больших языковых моделей (LLM) непосредственно в структуру вредоносного кода, что обеспечивает его модификацию на лету и нарушает традиционные подходы к обнаружению. Новый подход, получивший название «самомодификация по принципу точно вовремя», позволяет вредоносу адаптироваться в момент выполнения, подстраиваясь под условия среды, сетевой фильтрации и политики защиты конечной точки. Google в качестве примера приводит экспериментальный дроппер PromptFlux и похититель данных PromptSteal, известный также под псевдонимом LameHug. Эти инструменты уже применялись в кампаниях на территории Украины. PromptFlux, по данным экспертов, представляет собой вредоносный VBScript, генерирующий обфусцированный код с помощью L