Найти в Дзене

Искуссвенный интеллект переписывает правила глобальной кибербезопасности: что происходит на международной арене

Пока мы обсуждаем ChatGPT и нейросети для контента, на уровне государств разворачивается жёсткая геополитическая битва за контроль над искусственным интеллектом. На Инфофоруме-2026 были представлены доклады, которые показали: ИИ уже не вспомогательный инструмент — он стал фактором, трансформирующим саму систему международной кибербезопасности. И речь не только о дипфейках и фишинге. Речь о военных системах, которые принимают решения за секунды, о гонке автономных вооружений и о том, как западный блок строит параллельную систему глобального управления ИИ в обход ООН. Четыре угрозы нового уровня ИИ не просто усиливает известные киберугрозы. Он создаёт качественно новые риски на уровне государств и глобальной стабильности. УГРОЗА 1: Индустриализация информационного воздействия Генеративные модели ИИ позволяют в автоматическом режиме создавать и адаптировать контент под конкретную аудиторию. Цикл «воздействие — реакция — корректировка» сокращается до минут. Это больше не ручная работа трол

Пока мы обсуждаем ChatGPT и нейросети для контента, на уровне государств разворачивается жёсткая геополитическая битва за контроль над искусственным интеллектом. На Инфофоруме-2026 были представлены доклады, которые показали: ИИ уже не вспомогательный инструмент — он стал фактором, трансформирующим саму систему международной кибербезопасности.

И речь не только о дипфейках и фишинге. Речь о военных системах, которые принимают решения за секунды, о гонке автономных вооружений и о том, как западный блок строит параллельную систему глобального управления ИИ в обход ООН.

Четыре угрозы нового уровня

ИИ не просто усиливает известные киберугрозы. Он создаёт качественно новые риски на уровне государств и глобальной стабильности.

УГРОЗА 1: Индустриализация информационного воздействия
Генеративные модели ИИ позволяют в автоматическом режиме создавать и адаптировать контент под конкретную аудиторию. Цикл «воздействие — реакция — корректировка» сокращается до минут.
Это больше не ручная работа тролль-фабрик. Это конвейер влияния на промышленных мощностях.
УГРОЗА 2: Снижение порога входа в кибератаки
ИИ-инструменты стали массовыми. На каждом телефоне — дипфейки, в каждом браузере — генерация вредоносного кода. То, что раньше требовало квалификации хакерской группировки, теперь доступно любому энтузиасту.
Демократизация кибервойны — не метафора, а реальность 2026 года.
УГРОЗА 3: Агентные автономные системы
ИИ-агенты способны самостоятельно планировать многоэтапные операции, адаптироваться к защите, обучаться на лету. Это уже не скрипт-кидди, это автономный противник, работающий 24/7 без участия оператора.
УГРОЗА 4: Автономизация военного применения ИИ
Летальные и полуавтономные системы сокращают цикл «обнаружение — решение — применение силы» до секунд. Это повышает вероятность непреднамеренной эскалации конфликтов.

Кейс: система «Lavender» и «Gospel» в конфликте Израиль-ХАМАС

Шокирующий пример военного применения ИИ, о котором мало говорят в публичном пространстве.

Израильская армия использовала ИИ-систему «Lavender» (и дополнительную систему «Gospel») для выбора целей в секторе Газа во время конфликта с ХАМАС.

Ключевые факты:

  • Система имела погрешность около 10%, которую израильская армия считала допустимым «сопутствующим ущербом»
  • Решения об уничтожении некоторых целей принимались за 24 секунды
  • По отчётам ООН, общее количество жертв составило около 34 000 человек. Если 10% — это допустимая погрешность системы, цифры становятся ужасающими

Это не научная фантастика. Это реальное боевое применение ИИ с документированными последствиями. И это лишь начало.

Геополитика ИИ: параллельные треки и обход ООН

На международной арене формируется сложная система переговорных треков по регулированию ИИ. И здесь начинается самое интересное.

Универсальный трек ООН: попытка глобального диалога

Изначально ИИ не был самостоятельной темой в ООН — его обсуждали в контексте кибербезопасности как технологический фактор, усиливающий известные угрозы.

Качественный перелом произошёл в 2024-2025 годах:

  • Резолюция 78/265 зафиксировала приоритет безопасности и надёжности гражданского применения ИИ
  • Резолюция 78/266 сместила акцент на технологическое неравенство между странами

Но параллельно западный блок создал свою игру с другими правилами.

Трек AI Safety: закрытый клуб западного блока

Первый саммит AI Safety прошёл в Блетчли-Парке (Великобритания). По составу участников сразу стало ясно: это западный блок во главе с НАТО.

Что они делают:

Вырабатывают общую рамку рисков передовых моделей ИИ
Создают государственные и квазигосударственные институты по безопасности ИИ
Напрямую взаимодействуют с разработчиками моделей, формируя требования
Договариваются о стандартах внутри блока, а затем продвигают их в ООН как «готовые решения»

Сеульский саммит (2024) сместил фокус на практические вопросы тестирования и контроля моделей. Фактически, западный блок выстраивает параллельную систему управления ИИ.

Позиция США: «решительно отвергаем централизованный контроль»

Представитель США на сессии ООН заявил дословно: «Мы решительно отвергаем все усилия международных структур по установлению централизованного контроля над глобальным управлением искусственным интеллектом».

Перевод с дипломатического: мы будем регулировать ИИ сами, внутри нашего блока, а ООН пусть занимается разговорами.

Военный ИИ: зона высокой неопределённости

Военное применение ИИ развивается в условиях высокой закрытости, ускоренного внедрения и полного отсутствия международной подотчётности.

Четыре критических риска военного ИИ:

1. Утрата человеческого контроля
В какой-то момент человек может решить полностью делегировать принятие решений ИИ — как в случае с системой «Lavender». И считать, что это его больше не касается.
2. Проблема атрибуции
Кто виноват в ошибочном уничтожении цели? Разработчик алгоритма? Государство, принявшее систему на вооружение? Оператор, передавший решение ИИ? Юридически это тёмная зона.
3. Операционная уязвимость обученных моделей
Ошибки в данных и моделях трансформируются в ошибки оперативного уровня. «Мусор на входе — катастрофа на выходе», но теперь с летальными последствиями.
4. Эскалационный риск и гонка скоростей

Государства спешат внедрять военный ИИ как можно быстрее. Гонка скоростей может привести к необдуманной эскалации — когда системы разных сторон начинают реагировать друг на друга быстрее, чем люди успевают понять происходящее.

Позиция России: неинклюзивные форматы недопустимы

МИД России заявил чёткую позицию: считаем неправомерным приветствовать региональные и неинклюзивные форматы (намёк на AI Safety Summit), предлагающие готовые решения международному сообществу в обход универсальных переговорных площадок.

Резолюции ООН по военному ИИ приняты, но западный блок фактически игнорирует универсальный трек, выстраивая свою систему правил.

Что это значит для бизнеса и специалистов

Пока на уровне государств идёт битва за правила игры, бизнес и специалисты должны понимать новые реалии:

  • ИИ-безопасность перестала быть только технической задачей — это геополитика, право, этика
  • Регулирование будет фрагментированным: западный блок пойдёт одним путём, другие страны — своим
  • Компаниям придётся соответствовать разным стандартам в зависимости от рынков присутствия
  • Вопросы ответственности за действия ИИ-систем остаются в серой зоне — будьте готовы к судебным прецедентам
  • Автономные агенты и генеративные модели меняют ландшафт угроз — пересматривайте стратегии защиты

Хочу услышать ваше мнение:

  • Как вы оцениваете кейс с системой «Lavender»? Где граница допустимого применения ИИ в военной сфере?
  • Нужны ли единые глобальные стандарты регулирования ИИ или каждый блок пойдёт своим путём?
  • С какими новыми ИИ-угрозами вы уже столкнулись в своей работе?
  • Как ваша компания готовится к эпохе автономных агентов и генеративных атак?

Делитесь мнениями в комментариях. Это не абстрактная дискуссия — это формирование позиций на следующие 5-10 лет развития технологий.

---

Материал подготовлен на основе докладов на Инфофоруме-2026.

#ИскусственныйИнтеллект #МеждународнаяБезопасность #ГеополитикаИИ #АвтономноеОружие #Инфофорум2026 #АйБи #AISafety