Группа исследователей из Стэнфордского университета изучила влияние использования интеллектуальных помощников при написании кода на появление в коде уязвимостей. Рассматривались решения на базе платформы машинного обучения OpenAI Codex, такие как GitHub Copilot, позволяющие формировать достаточно сложные блоки кода, вплоть до готовых функций. Опасения связаны с тем, что так как для тренировки модели машинного обучения использован реальный код из публичных репозиториев GitHub, в том числе содержащий уязвимости, синтезированный код может повторять ошибки и предлагать код, в котором присутствуют уязвимости, а также не учитывать необходимость выполнения дополнительных проверок при обработке внешних данных. К проведению исследования были привлечены 47 добровольцев, имеющих разный опыт в программировании - от студентов, до профессионалов с десятилетним опытом. Участники были разделены на две группы - экспериментальная (33 человека) и контрольная (14 человек). Обе группы имели доступ к любым
Исследование влияния AI-ассистентов, подобных GitHub Copilot, на безопасность кода
31 декабря 202231 дек 2022
4
2 мин