Найти в Дзене
Social Mebia Systems

Как большие модели становятся новым оружием хакеров

«Домашний» ассистент как троянский конь Ещё недавно обсуждая риски ИИ, мы в первую очередь говорили о «факапах» самих моделей — генерация ошибок, уязвимости вроде известных эпизодов «удаления базы». Но новая угроза куда серьезнее: ваш собственный AI-инструмент может быть обращён против вас и стать соучастником атаки. 26 августа 2025 года это произошло в реальности: популярная система сборки Nx была скомпрометирована, и в её пакеты внедрили вредоносный код. Особенность атаки — впервые задействованы именно AI CLI-инструменты (Claude, Gemini и др.), через которые шёл сбор информации и утечка данных. Атака на Nx: 5 часов хаоса И хотя заражённые версии удалось снять через 5 часов после публикации, пострадали тысячи разработчиков по всему миру. Это первый публично зафиксированный случай, когда AI-инструменты были сознательно превращены в «внутреннего врага». AI в руках преступников: новая эра атак Случай с Nx — лишь часть тревожной тенденции: ИИ всё активнее используется киберпреступниками в

«Домашний» ассистент как троянский конь

Ещё недавно обсуждая риски ИИ, мы в первую очередь говорили о «факапах» самих моделей — генерация ошибок, уязвимости вроде известных эпизодов «удаления базы». Но новая угроза куда серьезнее: ваш собственный AI-инструмент может быть обращён против вас и стать соучастником атаки.

26 августа 2025 года это произошло в реальности: популярная система сборки Nx была скомпрометирована, и в её пакеты внедрили вредоносный код. Особенность атаки — впервые задействованы именно AI CLI-инструменты (Claude, Gemini и др.), через которые шёл сбор информации и утечка данных.

Атака на Nx: 5 часов хаоса

  • Вредоносные версии пакета начали публиковаться с 22:32 (UTC).
  • За последующие 5 часов появилось 8 заражённых релизов.
  • Код запускал скрипт telemetry.js сразу после установки.
  • Скрипт воровал SSH-ключи, токены npm и GitHub, кошельки MetaMask, Electrum, Phantom и другие.
  • Данные шифровались (тройное Base64) и выгружались в GitHub-репозитории, созданные автоматически.
  • Параллельно вредонос вносил в файлы оболочки команду sudo shutdown -h 0, что блокировало работу разработчиков (эффект DoS).

И хотя заражённые версии удалось снять через 5 часов после публикации, пострадали тысячи разработчиков по всему миру. Это первый публично зафиксированный случай, когда AI-инструменты были сознательно превращены в «внутреннего врага».

AI в руках преступников: новая эра атак

Случай с Nx — лишь часть тревожной тенденции: ИИ всё активнее используется киберпреступниками в качестве оружия.

  • AI-ассистенты для вымогателей. По данным Anthropic, один из хакеров использовал Claude Code для масштабных краж данных и вымогательства у 17 организаций (от больниц до госорганов). AI помогал не только собирать пароли и анализировать данные, но и сам писал тексты угроз и рассчитывал суммы выкупа.
  • «Ransomware-as-a-Service» на базе AI. В даркнете уже продаются пакеты вымогателей, созданных с помощью ИИ, по цене 400–1200 долларов. Достаточно денег, а не знаний.
  • PromptLock — AI-вымогатель нового типа. Исследователи ESET зафиксировали первый известный гибридный пример: программа не хранит в себе зашитый код, а генерирует скрипты на лету с помощью LLM (через Ollama API). Такой вирус проще скрыть и адаптировать под разные ОС.

Почему это так опасно

  1. Снижен порог входа — даже новичок может стать «хакером», купив готовый AI-набор.
  2. Гибкость атак — сценарий больше не статичен, а создаётся динамически. Это делает вирусы менее предсказуемыми и труднее обнаруживаемыми.
  3. Полная интеграция AI во все этапы преступления: от разведки и выбора жертвы до создания шантажа, генерации «реалистичных» писем и вывода денег.

Что дальше

ИИ перестал быть только объектом защиты — он сам превратился в активного участника атаки.

  • Для разработчиков: нужен пересмотр практик supply chain security, минимум доверия к сторонним пакетам.
  • Для компаний: срочная настройка мониторинга AI-инструментов и ограничения их доступа.
  • Для регуляторов: признание AI как фактора угрозы в кибербезопасности, а не только источника ошибок.

Вывод

«Внутренний враг» — это новый уровень опасности.
Если раньше мы защищались от внешних атак, то теперь наши собственные ассистенты, агенты и помощники могут быть обращены против нас.

AI стал универсальным инструментом — и значит, неизбежно стал новым оружием.