Wired Magazine | США
Искусственный интеллект научился находить уязвимости "нулевого дня" быстрее и эффективнее людей, пишет Wired. Это ставит под угрозу привычные методы киберзащиты, из-за чего IT-сектору вскоре придется полностью переосмыслить принципы создания программного обеспечения.
Уилл Найт (Will Knight)
Модели искусственного интеллекта настолько хорошо научились находить уязвимости, что по мнению некоторых экспертов, технологической отрасли придется переосмыслить методы разработки программного обеспечения.
ИноСМИ теперь в MAX! Подписывайтесь на главное международное >>>
Соучредители стартапа кибербезопасности RunSybil Влад Ионеску и Ариэль Герберт-Фосс на мгновение растерялись, когда разработанный ими инструмент искусственного интеллекта Sybil в ноябре прошлого года предупредил их об уязвимости в системах одного клиента.
"Реальный и грозный риск": атаки на российские суда могут привести к непоправимому
Sybil использует сочетание различных моделей ИИ, а также несколько фирменных технических приемов при сканировании компьютерных систем в поисках проблем, которыми могут воспользоваться хакеры, типа неисправленного сервера или неправильно настроенной базы данных.
В данном случае приложение Sybil отметило проблему в использовании клиентом объединенного языка запросов данных и манипулирования ими под названием GraphQL, который используется для уточнения того, как осуществляется доступ к данным в сети посредством интерфейсов прикладного программирования (API). Выявленная проблема указывала на то, что клиент непреднамеренно раскрывал конфиденциальную информацию.
Ионеску и Герберта-Фосса озадачило то, что для выявления проблемы такого рода требуется глубочайшее знание нескольких разных систем, а также способов их взаимодействия. Компания RunSybil заявляет, что после этого обнаружила такую же проблему в других системах, где используется GraphQL. Пока кто-нибудь не заявил об этом публично, "мы обшарили интернет, но ее не существовало", говорит Герберт-Фосс. "Обнаружить ее было логичным шагом с точки зрения возможностей моделей — кардинальным изменением".
Такая ситуация говорит о том, что риски усиливаются. Модели ИИ становятся все умнее, и у них появляются новые возможности по поиску уязвимостей нулевого дня, для которых еще не разработаны защитные механизмы, а также других слабых мест. Тот самый интеллект, который применяется для обнаружения уязвимостей, можно использовать и для их эксплуатации.
Программист Дон Сонг из Калифорнийского университета в Беркли, специализирующаяся на ИИ и безопасности, рассказывает, что последние достижения в области искусственного интеллекта позволили создать модели, которые лучше находят изъяны. Смоделированное мышление, предполагающее разбивку проблем на составляющие, а также агентный ИИ, позволяющий вести поиск в сети или устанавливать и использовать программные средства, повышают кибернетические возможности моделей.
"Способности передовых моделей в сфере кибербезопасности за последние месяцы существенно улучшились, — говорит она. — Это переломный момент".
В прошлом году Сонг в соавторстве создала программу оценки производительности CyberGym, чтобы определять, насколько хорошо большие языковые модели находят уязвимости в крупных проектах программного обеспечения с открытым исходным кодом. CyberGym включает 1 507 известных уязвимостей, найденных в 188 проектах.
В июле 2025 года модель Claude Sonnet 4 компании Anthropic сумела найти около 20 процентов уязвимостей в этой программе оценки производительности. К октябрю 2025 года новая модель Claude Sonnet 4.5 смогла выявить 30 процентов. "Агенты ИИ могут находить уязвимости нулевого дня, причем с минимальными затратами", — говорит Сонг. По ее словам, данная тенденция указывает на необходимость искать новые контрмеры, включая помощь экспертам по кибербезопасности со стороны искусственного интеллекта. "Нам надо думать о том, как ИИ может реально помочь в обеспечении более надежной защиты, и как можно использовать различные подходы", — объясняет она.
Одна из идей заключается в том, чтобы передовые компании ИИ показывали свои модели экспертам по безопасности до их запуска, чтобы те использовали их для поиска ошибок и защиты систем до их общего выпуска.
Есть еще одна контрмера, говорит Сонг. Нужно вообще по-новому подойти к созданию программного обеспечения. Ее лаборатория показала, что при помощи ИИ можно создавать коды, которые будут более надежными и безопасными, чем большинство из тех, которыми сегодня пользуются программисты. "Мы думаем, что в долгосрочной перспективе такой изначально безопасный подход реально поможет разработчикам мер защиты", — утверждает Сонг.
Команда RunSybil говорит, что навыки кодирования, которыми обладают модели ИИ, в ближайшем времени будут означать одно: хакеры одерживают верх. "ИИ может сгенерировать действия на компьютере и создать код, но хакеры тоже умеют это делать, — говорит Герберт-Фосс. — Если эти возможности будут расширяться, наступательные действия по обеспечению безопасности тоже будут ускоряться".
Еще больше новостей в телеграм-канале ИноСМИ >>