Способ автоматизации сортировки оповещений, расследования угроз и функций более высокого уровня. По данным IDC, агентный ИИ становится основной инфраструктурой. К 2030 году 45% организаций будут использовать автономных агентов в критически важных бизнес-функциях. В SOC ИИ уже трансформирует сортировку оповещений и т. д. — csoonline.com
способ автоматизировать сортировку оповещений, расследование угроз и, в конечном итоге, функции более высокого уровня.
По данным IDC, агентный ИИ становится основной инфраструктурой. Аналитическая фирма прогнозирует, что к 2030 году 45% организаций будут использовать автономных агентов в масштабе для выполнения критически важных бизнес-функций. В корпоративных SOC ИИ уже трансформирует такие функции, как сортировка оповещений, обогащение данных, корреляция данных, валидация индикаторов компрометации (IOC) и первичное сдерживание. Вскоре он может перейти к более сложным задачам, таким как расследование инцидентов, анализ первопричин и реагирование.
«ИИ действует как мультипликатор силы в SOC», — говорит Николь Кариньян, старший вице-президент по стратегии в области безопасности и ИИ в Darktrace. Однако для реализации этого потенциала организациям необходимо уже сейчас инвестировать в переподготовку аналитиков, реорганизацию процессов, создание новых технических ролей, а также в разработку систем защиты и рамок управления, чтобы обеспечить безопасную работу автономных ИИ-агентов. «Недостаточно просто развернуть ИИ-решение. Специалисты по безопасности должны понимать, как работают лежащие в основе методы машинного обучения, каковы их сильные и слабые стороны, и как оценивать их результаты», — отмечает Кариньян. «Без объяснимости и доверия ИИ рискует усугубить усталость от оповещений, а не решить ее».
Вот что руководителям служб безопасности необходимо знать — и делать — чтобы подготовить свои SOC к эпохе агентного ИИ.
Переподготовка аналитиков для работы в качестве ИИ-сотрудников и надзирателей
Роли людей в SOC все больше смещаются от непосредственного выполнения задач к надзору, управлению, проектированию и контролю. По мере того как ИИ-агенты берут на себя больше операционных задач, аналитикам потребуется сосредоточиться на управлении ИИ-системами, интерпретации результатов и решении тонких проблем, с которыми машины не справляются, — говорит Кейси Эллис, основатель Bugcrowd. «Рабочие места не исчезнут, они адаптируются. Ключ в том, чтобы специалисты SOC были готовы к этому сдвигу посредством постоянного обучения, тренингов и инструментария».
Мало кто ожидает, что переход произойдет органично или безболезненно. Многим руководителям SOC потребуется переподготовить существующий персонал для эффективного управления ИИ, проверки логики ИИ, обогащения расследований контекстной информацией и применения обоснованного человеческого анализа к результатам, полученным с помощью ИИ.
Принимая решение на основе рекомендации ИИ-инструмента, аналитики должны понимать, какие вопросы задал агент, какие источники данных он запрашивал и какие доказательства легли в основу его решения, — считает Дов Йоран, соучредитель и генеральный директор Command Zero. Далее они должны иметь возможность переключаться на дополнительные источники данных, искать новые артефакты и при необходимости продлевать сроки расследования. «Младшие аналитики, которые могут не знать, как начать расследование с нуля, могут стать эффективными, научившись расширять и уточнять то, что произвел агент», — говорит Йоран. «Это другой набор навыков по сравнению с традиционной работой в SOC, и во многих отношениях он более доступен».
В SOC будущего аналитики также должны выступать в роли противников, проверяющих выводы, полученные с помощью ИИ. Это связано с тем, что ИИ-системы могут генерировать галлюцинации, смещения в обучающих данных и другие уязвимости, а также быть подвержены враждебным манипуляциям. Аналитики должны распознавать эти риски, чтобы гарантировать, что решения остаются обоснованными и защищенными, — отмечает Энсар Секер, CISO в SOCRadar. «Аналитиков нужно обучать не столько нажатию кнопок, сколько проверке результатов работы ИИ с позиции противника. Это означает понимание того, как рассуждают модели, где они дают сбой, как проявляются смещения и пробелы в данных, и как ставить под сомнение уровни уверенности и допущения. Цель не в том, чтобы «быстрее доверять ИИ», а в том, чтобы развить инстинкт спрашивать: «Что может сделать это заключение неверным?»», — говорит Секер.
Аналитики также будут играть решающую роль в обеспечении организационного контекста для рабочих процессов, управляемых ИИ. Без этого контекста агенты рискуют пропустить угрозы, усилить шум или инициировать рискованные действия на основе неполной информации. Руководители SOC должны помнить, что «интеллект ИИ-агентов определяется только тем контекстом, к которому они имеют доступ», — отмечает Йоран. Аналитики должны научиться аннотировать идентификаторы, вести списки наблюдения, документировать повторяющиеся шаблоны ложных срабатываний и создавать уровни обогащения, которые укрепляют будущие расследования, — добавил он. «Это работа со знаниями, а не работа с данными».
В конечном счете, цель состоит не в том, чтобы превзойти ИИ, а в том, чтобы делать лучше там, где ИИ не справляется. Например, «признайте, что автономная сортировка оповещений станет стандартом», — говорит Йоран. «Ваши процессы должны сместиться с вопроса «как нам отсортировать каждое оповещение» на вопрос «как нам обрабатывать эскалации от автономных расследований»».
Создание возможностей для управления ИИ, контента и качества
Одного повышения квалификации существующих аналитиков недостаточно. По мере того как ИИ-агенты начнут работать с различными инструментами, принимая решения и инициируя действия с минимальным участием человека, требования к SOC выйдут далеко за рамки традиционных возможностей аналитиков, — считают эксперты.
Например, инженерия контента — это одно из возникающих требований. В SOC с поддержкой ИИ инженеры по обнаружению угроз будут писать не только статические правила. Им придется разрабатывать динамический контент, такой как вопросы, промпты и шаблоны расследований, которые агенты смогут использовать для рассуждений, обогащения данных, корреляции сигналов и автономных действий. Эти инженеры по контенту курируют структурированные входные данные, которые питают агентов, включая телеметрию, модели угроз и плейбуки.
«Это самая недооцененная роль в операциях безопасности с поддержкой ИИ», — отмечает Йоран. «Это люди, которые создают и поддерживают вопросы, которые могут задавать агенты, планы расследований, которые направляют автономную работу, и базы знаний, которые предоставляют контекст».
Организациям нужен кто-то, кто сможет переводить логику обнаружения из своей SIEM, импортировать лучшие практики из таких фреймворков, как MITRE ATT&CK, и кодировать институциональные знания в платформу. «Это не традиционная инженерия безопасности, это ближе к управлению знаниями в сочетании с разведкой угроз», — говорит он.
Зрелым SOC также потребуется четкое определение ответственности за управление ИИ и надзор за агентами. Это включает роли, отвечающие за оценку рисков модели, управление промптами и политиками, непрерывную проверку производительности и даже red teaming самих агентов, — отмечает Секер. «Вам не нужна огромная новая команда, но вам нужна четкая подотчетность за то, как принимаются, тестируются и ограничиваются автономные решения».
Еще одна возникающая потребность — это аналитики, глубоко разбирающиеся в управлении данными. SOC, управляемый ИИ, потребует специалистов, которые понимают, как следует классифицировать, защищать, нормализовать и отслеживать информацию для обеспечения надежных выводов. «Поскольку 64% организаций планируют добавить решения на базе ИИ в свой стек безопасности в следующем году, для специалистов критически важно освоить ИИ», — говорит Кариньян. «Специалисты по кибербезопасности должны свободно владеть ИИ и данными, глубже понимая классификацию данных, управление и поведение моделей». Кросс-навыки в области науки о данных, машинного обучения и кибербезопасности позволяют аналитикам критически оценивать результаты работы ИИ, настраивать модели для сценариев безопасности и адаптировать защиту по мере развития угроз, что делает их незаменимыми в SOC, дополненном ИИ.
Фрэнк Диксон, аналитик IDC, настоятельно рекомендовал организациям рассматривать эту возможность как нечто похожее на роль архитектора данных. «Ключ к получению ценности от ИИ — это наличие данных в месте, к которому вы можете получить доступ, их однородное форматирование для проведения анализа, а затем управление этими данными», — говорит он. «Успех вашей инициативы в области ИИ будет зависеть от эффективности вашей способности получать данные. Архитектор данных управляет этим».
Диксон также подчеркнул необходимость роли «инженера по оркестрационной платформе», ответственного за обеспечение эффективной коммуникации и интеграции рабочих процессов между инструментами безопасности. SOC будущего будет зависеть не от одной платформы, а от взаимосвязанной экосистемы SIEM, EDR, SOAR, систем идентификации, облачных и других систем, которые должны работать согласованно для поддержки расследований и автоматизации, управляемых агентами ИИ, — говорит Диксон. Специализированный опыт в области оркестрации станет необходимым для поддержания надежных потоков данных и логики автоматизации в такой среде, — отметил он.
Пересмотр процессов SOC и плейбуков при необходимости
Организациям потребуется проанализировать и переработать процессы и плейбуки SOC, чтобы обеспечить согласованность, эффективность и постоянное обучение SOC, дополненного ИИ. Йоран рекомендует руководителям SOC сосредоточиться на кодификации институциональных знаний в вопросы и планы, доступные для ИИ-агентов. Преобразуйте плейбуки в планы расследований, которым ИИ-агенты могут следовать на повторяемой основе. В ситуациях, когда агент может зайти в тупик, необходимо предусмотреть процессы для плавной передачи задач аналитику и создать циклы обратной связи для постоянного улучшения, — добавляет Йоран.
«Плейбуки должны перейти от пошаговых человеческих процедур к ориентированным на намерениям ограничителям», — подчеркивает Секер. «Вместо того чтобы указывать аналитикам, как проводить расследование, определите, какие результаты допустимы, какие действия запрещены и когда обязательно требуется одобрение человека». Цель состоит не в микроуправлении каждым оповещением, а в предположении, что ИИ-агенты постоянно работают с различными инструментами, а люди контролируют только исключения, пограничные случаи и стратегические решения.
SOC также необходимо переосмыслить метрики, подотчетность и документацию внутри SOC. Традиционные показатели эффективности, такие как количество закрытых заявок или среднее время разрешения, могут потребовать расширения, чтобы включить точность моделей, качество эскалации и эффективность автоматизированных действий по сдерживанию. «Самая большая ошибка — оптимизировать метрики скорости вместо качества расследования», — говорит Йоран. «Я постоянно вижу: поставщики обещают на 90% более быстрое время разрешения или снижение нагрузки на первый уровень на 80% или закрытие оповещений за секунды вместо часов. Эти метрики, хотя и соблазнительны, опасны», — предостерегает он. «Совершать одну и ту же ошибку быстрее никому не полезно. Неполное расследование, завершенное за две минуты, не лучше тщательного расследования, которое занимает 30 минут».
Проверяемость также становится критически важной. Все решения, принятые с помощью ИИ, должны быть отслеживаемыми, объяснимыми и подлежащими проверке как с точки зрения внутреннего управления, так и для соблюдения внешних нормативных требований. «Если вы не можете объяснить аудитору, регулятору или руководителю, почему ИИ предпринял то или иное действие, ему не следует разрешать его предпринимать. Объяснимость — это не желательная опция; это предварительное условие для автономии», — говорит Секер.
Внедрение ИИ-ограничителей и принципов
Формальные ограничители и операционные принципы будут иметь решающее значение в SOC, где ИИ-агенты влияют на решения, инициируют реагирование и помогают расставлять приоритеты угроз. Это означает установление определенных границ для доступа к данным и поведения моделей, наличие процессов для проверки реагирования и обеспечение того, чтобы люди оставались вовлеченными во все важные решения.
Основные направления должны включать пороговые значения утверждения для автономных действий, определение разрешенных и запрещенных действий для агента, защиту от атак типа prompt injection, тестирование и red teaming рабочих процессов агентов, а также обновление политик реагирования на инциденты для действий, управляемых ИИ. «Требуйте прозрачных цепочек принятия решений, ограничения скорости, наименьших привилегий и мгновенного перехвата управления», — советует Секер. «Жесткие ограничения на область действий, радиус поражения и привилегии являются не подлежащими обсуждению. Агенты должны работать под учетными записями с наименьшими привилегиями, с явными кнопками аварийного отключения, границами контроля изменений и осведомленностью об окружении. Ключ в том, чтобы ИИ никогда не мог незаметно расширить свои полномочия или изменить ограничители без одобрения человека».
Аналитик IDC Диксон указал на идентификацию и доступ как на две другие области, на которых следует сосредоточиться в плане ограничителей и политик. «В прошлом, когда мы предоставляли доступ людям, мы часто по умолчанию предоставляли избыточные права. Такой подход не работает с агентами. При агентном ИИ разрешения должны начинаться с наименьших привилегий, точно определенных с первого дня».
Основное внимание должно быть уделено обеспечению отсутствия постоянных привилегий, внедрению динамической авторизации и установлению четких определений ролей, — говорит Диксон. «Агентный ИИ чрезвычайно мощен. Правильное ограничение доступа не подлежит обсуждению».
Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.
Автор – Jaikumar Vijayan