С распространением больших языковых моделей (LLM), таких как ChatGPT, Claude, Gemini и других, начался и новый виток угроз. Наряду с их образовательными и бизнес-применениями, появилась возможность использовать такие ИИ не только для написания стихов или кода, но и — как выяснилось — для составления террористических мануалов. Что когда-то требовало месяцев подготовки и скрытого общения в даркнете, теперь можно сгенерировать за секунды. Согласно отчёту RAND Corporation за 2023 год, проведённому в сотрудничестве с Пентагоном, LLM в определенных условиях смогли сгенерировать инструкции по созданию взрывных устройств, сборке биологических агентов и даже подготовке к шутингу в учебных заведениях, если были грамотно обмануты или использовались в обход фильтров безопасности. Доклад от Brookings Institution в 2024 году показывает кейсы, где террористические организации пытались использовать LLM для генерации текстов на арабском, фарси и урду — в том числе для создания религиозно оправданных м
ИИ как «оружие лжи»: нейронки используют для создания террористических мануалов
15 июля 202515 июл 2025
4
3 мин