Исследователи Palo Alto Networks на практике проверили использование больших языковых моделей (LLM) для масштабной генерации новых вариантов вредоносного JavaScript-кода. Но главное, что такой код более устойчив к обнаружению всевозможными системами безопасности. «При наличии достаточного количества слоёв преобразований многие инструменты обнаружения вредоносных программ могут быть обмануты, посчитав, что фрагмент вредоносного кода является безвредным. Это означает, что по мере того как вредоносное ПО со временем развивается (намеренно или случайно в целях скрытия), эффективность классификации вредоносных программ ухудшается», — пишут исследователи. Они создали алгоритм на основе LLM, служащий для пошагового переписывания вредоносного JavaScript-кода. Для начала ему было задано переименовать переменные, добавить «мёртвый» (ненужный) код и удалить ненужные пробелы. Используя раз за разом этот метод, сервисы определения вредоносного кода с каждым разом всё реже справлялись со своей задач
Языковые модели делают традиционные антивирусы неэффективными
25 декабря 202425 дек 2024
11
1 мин