Найти в Дзене
SecureTechTalks

🚨 ИИ в кибербезопасности выходит из-под контроля

ИИ в кибербезопасности перестал быть помощником. За последние два года путь был довольно прямым: сначала LLM подсказывали пентестеру, затем начали автоматически выполнять задачи. Новая работа Alias Robotics фиксирует момент, когда, работающий ранее подход, перестаёт масштабироваться. Дальнейший прогресс упирается не в размер модели, а в то, как именно принимаются решения. Речь идёт не о «сверхразуме» в популярном смысле, а о системах, которые в отдельных классах задач стабильно превосходят человека по скорости и качеству стратегических решений. 🧑‍💻 От ассистента к агенту PentestGPT стал первым массовым примером применения LLM в offensive security. Модель помогала планировать шаги, интерпретировать вывод инструментов и удерживать контекст атаки. Человек при этом оставался в контуре исполнения. Агент CAI убирает человека из execution loop. AI сам планирует, сам исполняет команды, сам анализирует результаты и корректирует стратегию. На бенчмарках это даёт кратный выигрыш по времен

🚨 ИИ в кибербезопасности выходит из-под контроля

ИИ в кибербезопасности перестал быть помощником. За последние два года путь был довольно прямым: сначала LLM подсказывали пентестеру, затем начали автоматически выполнять задачи.

Новая работа Alias Robotics фиксирует момент, когда, работающий ранее подход, перестаёт масштабироваться. Дальнейший прогресс упирается не в размер модели, а в то, как именно принимаются решения.

Речь идёт не о «сверхразуме» в популярном смысле, а о системах, которые в отдельных классах задач стабильно превосходят человека по скорости и качеству стратегических решений.

🧑‍💻 От ассистента к агенту

PentestGPT стал первым массовым примером применения LLM в offensive security. Модель помогала планировать шаги, интерпретировать вывод инструментов и удерживать контекст атаки. Человек при этом оставался в контуре исполнения.

Агент CAI убирает человека из execution loop. AI сам планирует, сам исполняет команды, сам анализирует результаты и корректирует стратегию.

На бенчмарках это даёт кратный выигрыш по времени и стоимости, особенно в реверсе и форензике.

Однако в задачах pwn и crypto человек всё ещё выигрывает, но не за счёт скорости, а за счёт стратегического мышления.

⚠️ Автоматизация и интеллект

Авторы показывают важный предел: автономный агент без стратегической модели остаётся реактивным. Он эффективно выполняет локальные шаги, но плохо оценивает динамику противостояния, повторяет неудачные ходы и демонстрирует нестабильное поведение.

Проблема тут не в качестве LLM. Главная проблема в отсутствии формальной модели противника.

♟️ G-CTR: теория игр на практике

Game-Theoretic Guidance (G-CTR) добавляет агенту символьный уровень рассуждений. Из текущего контекста строится граф атаки, по которому вычисляется равновесие Нэша между атакой и защитой. Результат превращается в компактное стратегическое описание и встраивается в system prompt.

Это резко снижает вариативность поведения и повышает долю успешных сценариев. В Attack & Defense режимах такие агенты стабильно обыгрывают LLM-only системы 🧠

🔄 Ключевые изменения

Ключевой сдвиг в распределении ролей.

Человек перестаёт быть исполнителем и становится наблюдателем и контролёром стратегии.

ИИ берёт на себя не только выполнение, но и принятие решений в рамках формальной модели.

Это рабочая архитектура и серьёзный вызов для процессов, построенных под человеческий темп и человеческое мышление.

🔗 Источник статьи:

https://arxiv.org/abs/2601.14614

Stay secure and read SecureTechTalks 📚

#SecureTechTalks #AIsecurity #Cybersecurity #LLM #AgenticAI #Pentest #SOC #RedTeam #GameTheory #InfoSec