ИИ в кибербезопасности перестал быть помощником. За последние два года путь был довольно прямым: сначала LLM подсказывали пентестеру, затем начали автоматически выполнять задачи. Новая работа Alias Robotics фиксирует момент, когда, работающий ранее подход, перестаёт масштабироваться. Дальнейший прогресс упирается не в размер модели, а в то, как именно принимаются решения. Речь идёт не о «сверхразуме» в популярном смысле, а о системах, которые в отдельных классах задач стабильно превосходят человека по скорости и качеству стратегических решений. 🧑💻 От ассистента к агенту PentestGPT стал первым массовым примером применения LLM в offensive security. Модель помогала планировать шаги, интерпретировать вывод инструментов и удерживать контекст атаки. Человек при этом оставался в контуре исполнения. Агент CAI убирает человека из execution loop. AI сам планирует, сам исполняет команды, сам анализирует результаты и корректирует стратегию. На бенчмарках это даёт кратный выигрыш по времен