Найти в Дзене
Доступная Наука

Искусственный интеллект иногда создаёт код с ошибками — он ссылается на несуществующие программы

Оглавление

#новости #технологии #кибербезопасность #ИИ

В последние годы искусственный интеллект стал незаменимым инструментом для программистов, предпринимателей и разработчиков по всему миру. Автоматическая генерация кода на базе моделей вроде ChatGPT или CodeLlama ускоряет работу, позволяет автоматизировать рутинные задачи и даже создавать сложные приложения буквально за считанные минуты. По прогнозам аналитиков Gartner, к 2030 году до 95% всего кода будет создаваться с помощью ИИ (Gartner, 2023 год). Однако вместе с удобством растут и риски: автоматические системы всё чаще ошибаются, создавая код, который ссылается на несуществующие или вредоносные компоненты. Это не только мешает разработке, но и открывает новые возможности для кибератак.

Проблема «галлюцинаций» искусственного интеллекта

Что такое «галлюцинация» ИИ в программировании?
Это ситуация, когда искусственный интеллект в процессе генерации кода придумывает имена библиотек, функций или классов, которых не существует в реальности. На первый взгляд, это может показаться безобидной ошибкой — ведь программист быстро увидит, что модуль не найден. Но на практике последствия могут быть гораздо серьёзнее.

Исследование американских учёных
Группа специалистов из Университета Нью-Йорка и Аризонского университета в 2024 году проанализировала 576 тысяч фрагментов кода, сгенерированных различными моделями искусственного интеллекта. В каждом пятом примере (20%) были обнаружены ссылки на «фантазийные» компоненты — библиотеки, пакеты и функции, которых не существует в открытом доступе (Nature, Ким и др., 2024 год).

Особо тревожный вывод: 40% таких выдуманных названий повторялись из раза в раз, что означает: если злоумышленник создаст вредоносную библиотеку с этим названием и выложит её в общий доступ, тысячи пользователей рискуют случайно установить опасный код.

Реальные примеры атак: уязвимость supply chain

Крупнейшие ИТ-компании тоже пострадали
В 2021 году сразу несколько мировых гигантов — Apple и Microsoft — стали жертвами так называемых «supply chain» атак. Злоумышленники воспользовались тем, что автоматические генераторы кода предлагали подключить библиотеки с уникальными, но незанятыми именами. Хакеры быстро заняли эти имена и внедрили вредоносный код, который попал в рабочие проекты (Reuters, 2021 год; The Verge, 2021 год).

● В результате, вредоносные компоненты были загружены миллионами пользователей по всему миру до того, как атака была обнаружена.
● Эксперты называют этот тип угрозы одним из самых новых и недооценённых: атака происходит без взлома серверов, через доверие к автоматической генерации.

Почему искусственный интеллект ошибается?

Основные причины:

● ИИ обучается на огромных массивах открытого кода, где встречаются устаревшие, экспериментальные или ошибочные решения.
● При нехватке информации по какому-то редкому запросу ИИ может «додумать» название библиотеки или метода, чтобы сгенерировать рабочий на первый взгляд код.
● Часто такие ошибки проходят незамеченными на этапе первичного тестирования.

Статистика по разным языкам и моделям

Исследование, опубликованное в журнале Communications of the ACM (Ли, Вонг, 2024 год), показало:

● В среднем, ИИ ошибается в 18% случаев генерации кода.
● CodeLlama генерирует несуществующие компоненты в 22% примеров.
● ChatGPT делает такие ошибки реже — лишь в 5% случаев.
● Наиболее подвержен ошибкам JavaScript — 21% сгенерированного кода содержит «фантазийные» элементы.
● Python чуть надёжнее — 16% ошибочного кода.

Важно!
По мере развития ИИ эти показатели постепенно улучшаются, но полностью исключить ошибки пока не удалось ни одной модели.

Риски для бизнеса и частных пользователей

Чем грозит такая ситуация?
● Автоматическая установка вредоносных библиотек может привести к утечке личных данных, компрометации корпоративных систем, финансовым потерям.
● Под удар попадают как крупные ИТ-компании, так и индивидуальные разработчики, использующие ИИ для быстрой генерации решений.

Пример из российской практики
В 2023 году аналитики Лаборатории Касперского выявили несколько случаев заражения рабочих станций в российских компаниях из-за установки поддельных npm-пакетов, появившихся после внедрения ИИ-инструментов в процессы разработки (Лаборатория Касперского, 2023 год).
● Потери для бизнеса оценивались в десятки миллионов рублей.
● Часть случаев сопровождалась утечкой исходного кода и конфиденциальных документов.

Потенциальные угрозы для жителей РФ

Для рядовых пользователей и предпринимателей в России подобные атаки несут несколько рисков:
● Рост числа фишинговых атак и мошенничества через поддельные программы.
● Возможность компрометации банковских данных и персональной информации.
● Повышенная сложность самостоятельной проверки безопасности кода.

Как защититься: практические советы

1. Проверяйте каждую зависимость вручную
Перед установкой любой новой библиотеки проверьте её происхождение, количество скачиваний и отзывы на официальных ресурсах. Не устанавливайте компоненты, если они только что появились и не имеют репутации.

2. Используйте отечественные реестры и решения
В России развивается собственная экосистема программного обеспечения. Приоритет отдаётся компонентам из национальных реестров и доверенным российским компаниям. Это снижает риск наткнуться на поддельные или вредоносные модули.

3. Автоматизация аудита кода
Для корпоративных пользователей рекомендуется внедрение систем статического анализа и регулярного аудита программного обеспечения. Такие инструменты способны автоматически выявлять подозрительные зависимости и предупреждать о рисках.

4. Обучение и повышение цифровой грамотности
ИТ-специалистам и обычным пользователям важно следить за трендами кибербезопасности, изучать типовые схемы атак и способы защиты. Компании всё чаще проводят внутренние тренинги по безопасному использованию ИИ-инструментов (Минцифры РФ, 2024 год).

5. Диалог с поставщиками ИИ
Перед внедрением искусственного интеллекта в процессы разработки стоит обсудить с поставщиком ИИ-сервиса:
● Какие методы защиты реализованы в платформе?
● Как быстро обновляются списки доверенных зависимостей?
● Какая ответственность предусмотрена в случае ошибки ИИ?

Перспективы развития: ИИ становится безопаснее

Несмотря на существующие риски, рынок продолжает расти. По данным консалтинговой компании McKinsey (2025 год), автоматизация написания кода экономит компаниям до 30% бюджета на разработку и тестирование, а скорость вывода продуктов на рынок выросла вдвое. Это доказывает, что грамотное использование ИИ возможно, если соблюдать правила информационной безопасности.

Тенденции 2025 года:

● Рост числа российских стартапов, создающих безопасные среды для генерации кода на базе ИИ.
● Разработка отечественных систем автоматического аудита зависимостей.
● Усиление регулирования в сфере использования искусственного интеллекта и программного обеспечения, особенно в стратегически важных отраслях.

Ключевые выводы

● Искусственный интеллект при генерации кода способен «придумывать» несуществующие компоненты — это создаёт угрозу кибербезопасности.
● Каждая пятая программа, созданная ИИ, может содержать ошибочные или опасные ссылки.
● Крупнейшие мировые компании уже становились жертвами таких атак.
● Наиболее уязвимым остаётся JavaScript-код, Python безопаснее, но не идеален.
● Для жителей России основная рекомендация — использовать отечественные реестры и проверенные решения, внедрять системы автоматической проверки зависимостей и уделять внимание обучению персонала.

Безопасность — в руках пользователя. Разумное внедрение ИИ-инструментов возможно только при грамотном подходе и постоянном контроле. Россия обладает всеми возможностями для создания своей защищённой цифровой экосистемы, где ИИ будет приносить пользу без риска для бизнеса и граждан.

---

Этот и еще больше подобных материалов у нас на сайте https://x100talks.ru/ (новости, политика, ИТ, личностный рост, маркетинг, полезные гайды, семья, самопознание, наука и др)