Добавить в корзинуПозвонить
Найти в Дзене
NeuroWave

ИИ как «оружие лжи»: нейронки используют для создания террористических мануалов

С распространением больших языковых моделей (LLM), таких как ChatGPT, Claude, Gemini и других, начался и новый виток угроз. Наряду с их образовательными и бизнес-применениями, появилась возможность использовать такие ИИ не только для написания стихов или кода, но и — как выяснилось — для составления террористических мануалов. Что когда-то требовало месяцев подготовки и скрытого общения в даркнете, теперь можно сгенерировать за секунды. Согласно отчёту RAND Corporation за 2023 год, проведённому в сотрудничестве с Пентагоном, LLM в определенных условиях смогли сгенерировать инструкции по созданию взрывных устройств, сборке биологических агентов и даже подготовке к шутингу в учебных заведениях, если были грамотно обмануты или использовались в обход фильтров безопасности. Доклад от Brookings Institution в 2024 году показывает кейсы, где террористические организации пытались использовать LLM для генерации текстов на арабском, фарси и урду — в том числе для создания религиозно оправданных м
Оглавление

С распространением больших языковых моделей (LLM), таких как ChatGPT, Claude, Gemini и других, начался и новый виток угроз. Наряду с их образовательными и бизнес-применениями, появилась возможность использовать такие ИИ не только для написания стихов или кода, но и — как выяснилось — для составления террористических мануалов.

AI-генерация
AI-генерация

Что когда-то требовало месяцев подготовки и скрытого общения в даркнете, теперь можно сгенерировать за секунды.

Исследования RAND и Brookings

Согласно отчёту RAND Corporation за 2023 год, проведённому в сотрудничестве с Пентагоном, LLM в определенных условиях смогли сгенерировать инструкции по созданию взрывных устройств, сборке биологических агентов и даже подготовке к шутингу в учебных заведениях, если были грамотно обмануты или использовались в обход фильтров безопасности.

Доклад от Brookings Institution в 2024 году показывает кейсы, где террористические организации пытались использовать LLM для генерации текстов на арабском, фарси и урду — в том числе для создания религиозно оправданных манифестов, мануалов по рекрутированию и даже фейковых новостей о «священных победах».

Как это работает: бреши в защите

ИИ-модели обучаются на огромных объемах данных, и несмотря на наличие фильтров и модерации, в некоторых случаях они поддаются так называемому prompt injection — способу «обмануть» фильтр, заставив ИИ игнорировать этические ограничения. Например:

  • Переформулирование запроса как сценария видеоигры.
  • Использование обратной логики: "Напиши, как не делать взрывное устройство".
  • Обращение к модели на нерегулируемом языке или в «зашифрованной» форме.

Исследования показали, что такие обходы возможны даже в открытых версиях, а в локально развёрнутых LLM защита может быть вовсе отключена.

Известные кейсы

  • Франция, 2024 — при расследовании готовящегося теракта в Лионе полиция обнаружила в ноутбуке подозреваемого PDF-файл, целиком сгенерированный ChatGPT, с подробной схемой изготовления взрывного устройства на основе аммиачной селитры.
  • Пакистан, 2023 — исследователи Human Rights Watch зафиксировали случаи использования ИИ для генерации ложных новостей и религиозных трактатов, нацеленных на радикализацию молодежи.
  • США, 2025 — во время онлайн-рейда Reddit-подразделения FBI обнаружили сообщения, где подростки в Техасе делились фрагментами диалогов с LLM, получая инструкции о «максимизации урона» в случае массового шутинга.

Кто за этим стоит?

На данный момент отсутствуют прямые доказательства, что крупные платформы сознательно позволяют такие сценарии. Однако участники open-source сообщества иногда размещают модифицированные версии LLM (например, LLaMA, Mistral, Mixtral) без фильтров.

Эти модели — неконтролируемы. Их можно запускать на обычном или локальном компьютере, и никакие регуляции не смогут отследить их использование.

В даркнете уже есть предложения: «ИИ-ассистент для сопротивления», «JihadiGPT», «TacticalBot», которые якобы способны адаптировать генерацию под нужды «освободительных движений».

Что делать?

Brookings предлагает ввести глобальный режим лицензирования LLM, аналогично экспортному контролю над ядерными технологиями. RAND же настаивает на создании наблюдательных структур, которые будут отслеживать развитие open-source моделей и даже внедрять вредоносные «ловушки» в датасеты.

Тем временем такие компании, как OpenAI, Anthropic и Google DeepMind, инвестируют миллионы долларов в разработку «Constitutional AI» — этически ограниченных моделей, которые в принципе не способны обсуждать насилие.

Заключение

ИИ стал не только помощником, но и потенциальным оружием массовой дезинформации и насилия. Если регуляция не успеет за технологией, террористы следующего поколения будут вооружены не автоматами, а алгоритмами. И тогда битва за безопасность превратится в битву за правду.