Составление обзора конференции — это акт профессионального прогнозирования. Вы читаете повестку дня, сопоставляете плотность сессий и делаете свой личный прогноз о том, где сконцентрируется интеллектуальная энергия. RSA Conference 2026 очертила определяющее напряжение для CISO: как быстро внедрить ИИ, сохраняя конкурентоспособность и защищая предприятие. — csoonline.com
Составление обзора конференции — это акт профессионального прогнозирования. Вы изучаете повестку дня, сопоставляете плотность сессий в расписании и делаете свой личный прогноз о том, где сконцентрируется интеллектуальная энергия.
С моей точки зрения перед началом, RSA Conference 2026 обозначила определяющее напряжение для CISO сегодня: как обеспечить достаточно быстрое внедрение ИИ для сохранения конкурентоспособности, одновременно защищая предприятие от ландшафта угроз, который сам ИИ трансформирует.
Теперь, когда RSAC 2026 завершилась, стоит сопоставить предконференционные прогнозы, такие как мои пять ключевых приоритетов для CISO и их команд, с тем, что на самом деле прозвучало на сессиях, панелях венчурных капиталистов и в кулуарных беседах, которые, как правило, более откровенны, чем всё, что говорится на сцене.
Вердикт: рамка выдержала. Фактически, очень мало разговоров обходилось без того, чтобы ИИ не был в центре внимания. В конференц-центре Moscone в Сан-Франциско я постоянно слышал: «Мы живем в беспрецедентные времена» — клише, которое, как мне кажется, является правдой.
Мои личные сюрпризы касались в основном акцентов и скорости развития ИИ, с более сильными и, возможно, более резкими коммерческими аспектами, чем я ожидал.
Гипотеза насыщения ИИ подтвердилась
В моем превью RSAC 2026 я утверждал, что ИИ стал не просто отдельным направлением, а самой конференцией, причем около 40% повестки дня было взвешено в сторону ИИ во всех доменах кибербезопасности.
Это, безусловно, подтвердилось на сцене. Каждая панель, будь то инвестиции, продукты, идентификация или наступательные возможности, возвращалась к ИИ. Йоав Лейтерсдорф из YL Ventures выразился прямо: «Все хотят говорить только об ИИ, и если вы не занимаетесь ИИ, инвесторы не хотят с вами разговаривать».
Кевин Мандиа из Ballistic Ventures на Ежегодном исполнительном ужине RSA отметил, что мы должны исключить людей из цикла, чтобы ИИ против ИИ стал новой парадигмой. Он объяснил, что ИИ-агенты были внедрены в упражнения по red teaming и способны действовать в масштабе и с высокой скоростью. Таким образом, хотя ИИ сжимает цикл атаки, ИИ также может «автоматизировать» существующие команды для улучшения их реагирования с 5 дней до 5 минут.
Что мое превью не смогло полностью предвидеть, так это степень, в которой нарратив об ИИ разделился на два различных коммерческих давления, действующих одновременно.
Дэйв ДеУолт из NightDragon уловил обе стороны: ИИ как инструмент для защиты и нападения, а также ИИ как структурная сила, выравнивающая конкурентный ландшафт между устоявшимися поставщиками и стартапами. Его замечание о том, что финансирование Серии А теперь стремится к 100 миллионам долларов — и что он никогда не видел, чтобы капитал развертывался так быстро — произвело сильное впечатление.
RSAC 2026 ощущалась меньше как обучающее мероприятие и больше как среда для заключения сделок с приложенными образовательными сессиями.
Защита стека ИИ: Да, но поверхность угроз возросла
Первым техническим приоритетом, который я обозначил для CISO в своем превью конференции, была защита стека ИИ — рабочих процессов RAG, конвейеров данных LLM, векторных баз данных и API моделей — на том основании, что атаки типа prompt injection, отравление обучающих данных и инверсия моделей больше не являются теоретическими.
Зал подтвердил это, но добавил измерения, которые мое превью недооценило. Майк Леланд из Island всесторонне охарактеризовал поверхность корпоративных рисков ИИ: утечка данных, теневой ИИ, prompt injection, нарушение авторских прав и интеллектуальной собственности, галлюцинации и резидентность данных. Это не последовательные проблемы — они возникают одновременно в тот момент, когда организация разрешает использование инструментов ИИ в среде.
Разговор об ИИ-red teaming прозвучал с большей коммерческой срочностью, чем ожидалось. Брайан Сингер из Frontier Labs описал среды, где ИИ-атакующие действуют в 1000 раз быстрее, чем человеческие противники, выдвигая разговор о защите стека из оборонительной позиции во что-то более активное.
На полу конференции я пообщался с Шивом Агарвалом, генеральным директором Singulr, и Ричардом Бёрдом, техническим директором и главным стратегом Singulr, чья платформа пытается решить эту проблему видимости в масштабе. Их отправная точка была прямолинейной: «Использование ИИ выходит из-под контроля на предприятии. ИТ-директору, техническому директору нужен определенный уровень контроля, но без остановки или замедления инноваций».
То, что обнаруживает работа Singulr по выявлению, является большей проблемой, чем большинство советов директоров осознают. Бёрд сообщил мне, что в ходе корпоративных оценок они постоянно выявляют от 350 до 430 активно используемых сервисов и функций ИИ, подавляющее большинство из которых никогда не было официально санкционировано. Проблема теневого ИИ не теоретическая. Она уже развернута.
Он предложил более тонкую структуру риска, чем большинство встреченных мной поставщиков: контекст имеет такое же значение, как и сам инструмент. «ChatGPT — это очень хорошо законтрактованный и одобренный сервис ИИ», — сказал он. «Но если кто-то использует его с личной учетной записью, и обучение модели не отключено, это несет такой же риск, как сервис, запущенный двумя людьми в гараже». К сожалению, санкция сама по себе не гарантирует безопасность.
Нечеловеческая идентификация: Выдающаяся тема конференции
В моем превью управление нечеловеческой идентификацией (NHI) было названо быстро становящейся одной из самых значимых операционных лакун в корпоративной безопасности. Это оказалось моим самым прозорливым предсказанием. Это был не просто трек; это стало сквозной линией через несколько панелей. Росс Халелюк прямо отметил, что машинных идентификаторов уже больше, чем человеческих.
Марк МакКлейн, основатель SailPoint, переформулировал всю проблему управления идентификацией вокруг намерения и контекста агента: Мы предполагали, что люди находятся в офисе или работают удаленно, но понимаем ли мы намерение ИИ-агента, и есть ли у нас политики ограждения, способные рассуждать об этом?
Формулировка МакКлейна показалась мне наиболее интеллектуально честным моментом конференции по этой теме. Он признал, что появляются новые технологии, которые окажут давление на его собственную платформу, и в то же время утверждал, что любой, кто считает, что можно овладеть агентным миром в изоляции без человеческого надзора, заблуждается.
Инфраструктурный вопрос был развит в моем разговоре с Ноамом Иссахаром и Джейком Турецким из Jazz, чья платформа строит то, что они называют плоскостью управления для агентного уровня. Их формулировка была архитектурно провокационной: «ИИ — это новая инфраструктура. ИИ-агент может руководить и предпринимать действия для чего-то, что выглядит как трансформация данных, и никогда не спускаться на нижние уровни технологического стека». По их мнению, агентный уровень становится новым HTTP — уровнем транспортировки и трансформации данных, который находится над традиционной инфраструктурой, но под логикой приложений.
Что их больше всего беспокоило, так это существующий вакуум управления в этом пространстве: «Если ИИ действительно трансформационен, то почему нет трансформации процессов, политик и управления, отражающей тот факт, что управление трафиком уже происходит там?» Это справедливый вызов. Архитектура опередила фреймворки, созданные для ее регулирования.
Управление ИИ: Присутствует, но поглощено более широкими дискуссиями
Приоритет соответствия требованиям в моем превью был сосредоточен на Законе ЕС об ИИ (EU AI Act) и необходимости для CISO разрабатывать обоснованные фреймворки «лицензии на деятельность» для развертывания ИИ.
Эта тема присутствовала на RSAC, но была в некоторой степени поглощена более широкими обсуждениями регуляторного согласования, а не рассматривалась как отдельный приоритет. Обмен мнениями между Сандрой Джойс, вице-президентом Google Threat Intelligence, и Ричардом Хорном из NCSC коснулся напряжения между защитниками и нападающими, которые оба выигрывают от ИИ — NCSC предоставляет стандарты фреймворков, на которые затем ориентируются регуляторы, модель управления по ссылкам, а не по предписаниям.
Джей Баваси, генеральный директор EC Council, предложил наиболее прямое формулирование управления, которое я встретил за всю неделю: «Наше отношение как сообщества было: сначала стреляй, потом задавай вопросы. Но мы должны делать наоборот: сначала задавать вопросы, потом стрелять».
Данные, лежащие в основе этого обвинения, труднее игнорировать, чем риторику. Баваси процитировал, что 84% компаний из списка Fortune 500 упоминают внедрение ИИ в своих отчетах 10-K. Он отметил, что доля тех, кто заявляет о наличии фактического управления ИИ, составляет всего 18%. При том, что 72 страны уже приняли нормативные акты или фреймворки по ИИ, разрыв между раскрытием информации и подотчетностью расширяется, а не сужается.
Бёрд из Singulr подкрепил эту озабоченность с операционной точки зрения, отметив, что разговор об управлении внутри большинства предприятий по-прежнему в значительной степени носит показательный характер — советы директоров обсуждают риски ИИ, не имея институциональных механизмов для их фактического управления.
Кэти Грей из In-Q-Tel предложила самый резкий противовес нарративу об управлении: Никогда еще не было лучшего времени для продаж правительству США, а Министерство обороны тратит 5 миллиардов долларов на кибербезопасность ежегодно. В этой среде разговоры об управлении меньше касаются архитектуры соответствия требованиям и больше — позиционирования для получения госзаказов.
Теневой ИИ: Подтвержден и коммерчески срочен
Приоритет риска, связанный с теневым ИИ и «vibe coding» (несанкционированное использование ИИ, в значительной степени невидимое для команд безопасности), был подтвержден на нескольких сессиях. Фреймворк готовности Леланда прямо заявил: Есть ли у вас видимость использования теневых ИИ-инструментов на предприятии? Можете ли вы идентифицировать и предотвратить ненадлежащее использование данных с помощью генеративных ИИ-инструментов?
Агарвал из Singulr добавил аспект, который большинство поставщиков неохотно называют. Наиболее часто обнаруживаемым несанкционированным приложением ИИ в корпоративных оценках является Grammarly — не какая-то вредоносная модель или экзотический инструмент для эксфильтрации данных, а помощник по письму, который большинство сотрудников считают безвредным, а большинство ИТ-команд никогда не задумывались классифицировать как риск ИИ.
Его общая мысль о профиле риска заслуживает внимания советов директоров: «Ваш ежемесячный отчет совету директоров в некотором роде бесполезен, потому что ваша позиция риска сегодня отличается от той, что была этим утром». Статический снимок управления динамичной и реальной поверхностью угроз — это категориальная ошибка, а не формат отчетности.
Амир Зильберштейн из Team8 отметил инвестиции в переосмысленную категорию DLP именно на этом основании: старая категория вызывала недовольство, но классификация на основе ИИ меняет то, что возможно.
Что упустил мой обзор
Две вещи, которые предконференционная статья не смогла полностью предвидеть:
Во-первых, динамика концентрации капитала. Наблюдение Амира Зильберштейна о том, что больше финансирования идет в меньшее количество компаний, в сочетании с цифрами по начальному и Серии А от Дэйва ДеУолта, описывает рынок, консолидирующийся на вершине, даже когда он фрагментируется внизу. 9900 киберкомпаний, на которые ссылался ДеУолт, не все переживут столкновение с титанами ИИ, пришедшими из мира SaaS.
Во-вторых, разговор о рабочей силе. Это была нить, которую я нашел наиболее неразрешенной в каждом разговоре, который у меня был на сцене и вне ее.
Многие спикеры цитировали формулировку Дженсена Хуанга о соотношении агентов к человеку 1:2000. Затем я отмечал совет Йоава Лейтерсдорфа сохранять R&D на прежнем уровне и расти за счет ИИ, и наблюдение Марка МакКлейна о том, что ИИ-агенты действуют со скоростью, недостижимой для человека — эти сигналы указывают на структурный сдвиг в рабочей силе, который руководство по кибербезопасности еще не до конца осознало.
Баваси из EC Council был самым прямым голосом по этому поводу. Он возразил против предпосылки, что CISO должны полностью владеть ИИ: «CISO уже страдают. Уже происходит тысяча вещей. Это одна из самых недолговечных должностей в мире. И вы собираетесь свалить на них бегемота».
Он процитировал 4 миллиона незаполненных вакансий в сфере кибербезопасности сегодня, и эта цифра, вероятно, удвоится по мере созревания агентного уровня — не потому, что спрос уменьшится, а потому, что требуемый набор навыков фундаментально изменится.
Баваси также озвучил то, что я бы назвал самой конфронтационной статистикой недели — не об угрожающих акторах, а о готовности самой отрасли: «Мы живем в эпоху, когда у ИИ-агентов уже есть свое собственное сообщество в социальных сетях. Мы живем в эпоху, когда людям угрожают и шантажируют, а мы до сих пор не решили, как мы собираемся внедрять ответственное управление и этику ИИ», — сказал он.
Заключительное наблюдение
В то время как мой обзор был сосредоточен на том, что CISO должны узнать на RSAC, то, что показал зал, заключалось в том, что некоторые из этих вещей могут потребовать от них переосмысления того, как построены их команды, как структурировано их управление и как они отчитываются перед советами директоров, которые задают вопросы об управлении ИИ, но получают ответы, разработанные для другой эпохи.
Разведданные накапливаются. Институциональный ответ отстает. Этот разрыв и был настоящей историей RSAC 2026.
Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.
Автор – David Gee