Добавить в корзинуПозвонить
Найти в Дзене

Исследование: Уязвимости в AI-коде растут на 1000% за год

Изучение Georgia Tech выявило, что AI-инструменты для написания кода не делают его более безопасным. В 2025 году исследование зафиксировало всего две уязвимости в AI-коде, однако к марту 2026 года их количество возросло до 35. Это свидетельствует о том, что использование AI в разработке программного обеспечения может привести к новым угрозам безопасности. За последние месяцы наблюдается резкий рост популярности AI-кодеров, таких как Claude Code и GitHub Copilot. Например, Claude Code добавил более 30,7 миллиарда строк кода в открытые репозитории только за последние три месяца. Эта активность имеет прямое влияние на безопасность кода: по данным исследователей, большая часть новых уязвимостей была связана именно с использованием этих AI-инструментов. Сравнение показателей также показало, что на данный момент Claude Code ответственно за 27 уязвимостей, в то время как GitHub Copilot — за 4. Это наводит на размышления о качестве кода, созданного с помощью AI. Общее количество зарегистрирова
Оглавление

Изучение Georgia Tech выявило, что AI-инструменты для написания кода не делают его более безопасным. В 2025 году исследование зафиксировало всего две уязвимости в AI-коде, однако к марту 2026 года их количество возросло до 35. Это свидетельствует о том, что использование AI в разработке программного обеспечения может привести к новым угрозам безопасности.

Растущий рынок AI-инструментов

За последние месяцы наблюдается резкий рост популярности AI-кодеров, таких как Claude Code и GitHub Copilot. Например, Claude Code добавил более 30,7 миллиарда строк кода в открытые репозитории только за последние три месяца. Эта активность имеет прямое влияние на безопасность кода: по данным исследователей, большая часть новых уязвимостей была связана именно с использованием этих AI-инструментов.

Сравнение показателей также показало, что на данный момент Claude Code ответственно за 27 уязвимостей, в то время как GitHub Copilot — за 4. Это наводит на размышления о качестве кода, созданного с помощью AI.

Числа, которые настораживают

Общее количество зарегистрированных CVEs (Common Vulnerabilities and Exposures) от AI составило 74 из 43 849 изученных случаев. Исследователь Hanqing Zhao из Georgia Tech отметил, что даже если эта цифра и кажется низкой, она не отражает реальное количество угроз. «У нас есть все основания полагать, что реальное число уязвимостей, связанных с AI, в 5-10 раз выше», — говорит он.

Кроме этого, исследование Georgetown University также подтолкнуло к мысли, что почти 48% сгенерированного AI-кода имели ошибки, что ставит под сомнение надежность этих технологий. Исследование тестировало пять различных AI-моделей и пришло к выводу, что только 30% кода прошло валидацию на безопасность.

Проблемы для разработчиков

Для разработчиков это важный сигнал: использование AI-кодеров требует тщательной проверки и валидации сгенерированного кода. В частности, предприятиям, использующим AI, следует учитывать, что безопасность может ухудшиться, если не проводить аудит созданной программы. С учетом того, что AI-инструменты составляют уже более 4% публичных коммитов на GitHub, игнорировать эту проблему нельзя.

Следующий шаг для разработчиков — формирование стратегий безопасности и использование эффективных инструментов валидации кода, чтобы минимизировать риски, связанные с уязвимостями в AI-коде.

The post Исследование: Уязвимости в AI-коде растут на 1000% за год appeared first on iTech News.