Языковые модели могут генерировать код, который ошибочно ссылается на программные пакеты, создавая уязвимости, которые могут эксплуатировать злоумышленники.
Что нового: Исследователь кибербезопасности заметил, что большие языковые модели при генерации кода многократно производят команду установки пакета, которого на самом деле нет по указанному пути, сообщил The Register. Он создал фиктивный пакет с таким же названием и загрузил его по этому пути, и разработчики должным образом его установили.
Как это работает: Бар Ланьядо, исследователь из Lasso Security, обнаружил, что ошибочная команда pip install huggingface-cli появлялась неоднократно в сгенерированном коде. Пакет huggingface-cli действительно существует, но он устанавливается с помощью команды pip install -U "huggingface_hub[cli]. Ошибочная команда пытается загрузить пакет из другого репозитория. Ланьядо опубликовал некоторые из своих выводов в блоге.
Ланьядо загрузил безвредный пакет с таким названием. Между декабрем 2023 и