Искусственный интеллект (ИИ) стал неотъемлемой частью многих сфер современного мира, от медицины до финансовой безопасности. Но, как и многие другие мощные технологии, эта может быть использована не только во благо.
Несмотря на то, что искусственный интеллект как отрасль науки довольно молод — датой его рождения считается 1956 год, — уже сейчас эта технология поражает возможностями. ИИ может распознавать и генерировать изображения, в том числе создавать изумительные имитации картин великих мастеров, писать тексты (и не только прозу), музыкальные произведения, делать прогнозы на основе огромных массивов данных, выигрывать у чемпионов по шахматам и предлагать неожиданные стратегии в го и других интеллектуальных играх.
Считается, что ИИ превосходит людей по IQ и креативности: в викторинах он набирает на 40 % больше баллов. Это действительно мощный инструмент, который может быть очень опасным, например на службе террористических групп. И угроза возрастает в связи с повышающейся доступностью технологии.
Как террористы используют ИИ?
Получение специфической информации
Исследователи проблемы приводят примеры, как искусственный интеллект, чуждый этики и эмпатии, словно многознающий, но болтливый и беспринципный учёный, рассказывает о способах получения бактерии возбудителя чумы и использовании опасных патогенов и даже предлагает «легенду» для приобретения токсичных или взрывчатых веществ. Несмотря на то, что предоставленная информация ограничена, её направленность говорит о необходимости строгого контроля над ИИ.
Автоматизация атак
Искусственный интеллект может использоваться для наблюдения, сбора разведывательной информации, анализа данных и даже для непосредственных атак — например, дронов с элементами ИИ. Эти устройства, действующие скрытно и автономно, позволяют проводить атаки с высокой точностью и с минимальным риском для исполнителей. Исламисты применяют беспилотные летательные аппараты (БПЛА) с 2017 года. По этому пути идут и украинские радикалы.
Согласно отчёту Министерства иностранных дел Российской Федерации, в 2024 году зафиксированы десятки случаев ударов украинских БПЛА по гражданскому транспорту и гражданским объектам в России, в том числе относящимся к энергоструктуре и с угрозой создания очагов радиационного поражения. Среди пострадавших и погибших — женщины и дети, сотрудники медицинских, спасательных и аварийных служб, представители средств массовой информации. Закон однозначно относит такие атаки к террористическим действиям.
Создание пропаганды
С помощью алгоритмов машинного обучения искусственный интеллект может обрабатывать большие массивы данных, анализировать какая информация вызывает наибольший отклик у целевой аудитории, и создавать высококачественный контент на «языке ненависти», адаптированный под различные культурные контексты, для пропаганды террористической идеологии, нахождения и привлечения сторонников.
Так, джихадистские группировки давно используют ИИ для создания пропагандистских видеороликов или даже мультсериалов, в которых одобряется терроризм. Главным средством распространения такого контента являются социальные сети. А особенно уязвимыми — дети и молодёжь, наиболее активные в виртуальном пространстве.
Рост роли «синтетических медиа» (СМИ на основе ИИ) грозит подрывом доверия людей к государственным институтам и правительствам.
В Концепции противодействия терроризму в Российской Федерации распространение идей терроризма и экстремизма через информационно-телекоммуникационную сеть Интернет и средства массовой информации названо одним из основных факторов, способствующих возникновению и распространению терроризма.
Кибератаки
Искусственный интеллект может использоваться террористами для анализа уязвимых мест в системах безопасности и создания сложных и эффективных кибератак, направленных на разрушение критической инфраструктуры (например, энергетических сетей, транспортных систем), для получения доступа к конфиденциальной информации или размещения пропагандистского контента, а также для получения денежных средств на финансирование террористической деятельности.
Целями высокотехнологичных террористических атак могут быть самообучающиеся транспортные системы с управлением на основе ИИ, которые постепенно получают распространение. Так, захват террористами контроля над системами управления транспортом в большом городе может привести к катастрофическим последствиям, вызвать огромный резонанс в СМИ и нанести значительный ущерб информационно-психологической безопасности.
Анализ данных
С помощью ИИ террористические группы могут анализировать большие объёмы данных для выявления потенциальных целей и планирования операций. Алгоритмы позволят обрабатывать информацию из открытых источников, социальных сетей и других платформ для выявления поведенческих шаблонов, что позволяет террористам действовать направленно, обнаруживая людей, которые могут быть уязвимы к радикализации, и применять эффективные способы их вербовки, в том числе при помощи фейкового контента, сгенерированного искусственным интеллектом.
При таких возможностях использования ИИ возникает соблазн признать его оружием массового поражения и запретить. Но можно ли и нужно ли это делать?
Обоюдоострое оружие
Следует помнить, что искусственный интеллект может быть использован и для защиты от террористических атак и предотвращения террористических актов. Например, системы ИИ способны анализировать данные с камер видеонаблюдения в реальном времени, помогая правоохранительным органам выявлять подозрительное поведение. Так, в Москве для этого применяются нейросети NtechLab — компании, считающейся мировым лидером в разработке решений для видеоаналитики на основе технологий искусственного интеллекта.
Кроме того, ИИ может быть использован для системного анализа и предсказания угроз — например, по постам в социальных сетях, перемещениям человека, сменам номеров, покупкам, анализу документов, поведению в толпе и другим данным. Это позволяет специальным службам более эффективно распределять ресурсы и предотвращать возможные атаки.
И всё это — помимо других «талантов» ИИ, перечисленных в первом абзаце статьи.
***
Современные технологии, включая искусственный интеллект, могут быть использованы как для защиты, так и для нападения. Распознать такие акты может только общество, обладающее системными политехническими знаниями.
Важно, чтобы государственные органы, правоохранительные структуры и общество в целом осознавали эти риски и работали над разработкой стратегий для минимизации угроз, связанных с использованием ИИ террористическими группами.
Общество должно активно обсуждать этические аспекты и разрабатывать меры, которые помогут предотвратить использование технологий во вред. Предпринимая активные шаги по противодействию этим угрозам, государства и организации смогут минимизировать риски, связанные с использованием достижений научно-технического прогресса в преступных целях.