Есть такой привычный ритуал в мире разработки: запускаешь сканер безопасности, он находит что-то страшно звучащее, ты ставишь галочку «проверено» — и все довольны. Удобно, привычно, и иногда даже полезно. Проблема в том, что классические сканеры работают как рамка металлоискателя на входе: ищут то, что уже знают. Нож найдут. Керамический пистолет — нет. И не потому что плохо настроили. Просто так устроены. В феврале Anthropic, а через две недели OpenAI почти синхронно выпустили бесплатные инструменты, которые проверяют код иначе — не по шаблонам, а с попыткой понять логику. Что автор хотел сделать. Что реально произойдёт, если данные пойдут вот так. Разрыв в две недели выглядел как вежливое корпоративное «мы тоже умеем». Получилось довольно громко. Anthropic заявила: их модель обнаружила больше пятисот ранее неизвестных серьёзных уязвимостей в популярных открытых проектах — тех, которые годами проверяли профессиональные аудиторы. Один показательный пример: в популярной библиотеке для р
ИИ нашёл дыры, которые «профессиональные сканеры» не видели годами
13 марта13 мар
1
2 мин