Пока мы обсуждаем ChatGPT и нейросети для контента, на уровне государств разворачивается жёсткая геополитическая битва за контроль над искусственным интеллектом. На Инфофоруме-2026 были представлены доклады, которые показали: ИИ уже не вспомогательный инструмент — он стал фактором, трансформирующим саму систему международной кибербезопасности.
И речь не только о дипфейках и фишинге. Речь о военных системах, которые принимают решения за секунды, о гонке автономных вооружений и о том, как западный блок строит параллельную систему глобального управления ИИ в обход ООН.
Четыре угрозы нового уровня
ИИ не просто усиливает известные киберугрозы. Он создаёт качественно новые риски на уровне государств и глобальной стабильности.
УГРОЗА 1: Индустриализация информационного воздействия
Генеративные модели ИИ позволяют в автоматическом режиме создавать и адаптировать контент под конкретную аудиторию. Цикл «воздействие — реакция — корректировка» сокращается до минут.
Это больше не ручная работа тролль-фабрик. Это конвейер влияния на промышленных мощностях.
УГРОЗА 2: Снижение порога входа в кибератаки
ИИ-инструменты стали массовыми. На каждом телефоне — дипфейки, в каждом браузере — генерация вредоносного кода. То, что раньше требовало квалификации хакерской группировки, теперь доступно любому энтузиасту.
Демократизация кибервойны — не метафора, а реальность 2026 года.
УГРОЗА 3: Агентные автономные системы
ИИ-агенты способны самостоятельно планировать многоэтапные операции, адаптироваться к защите, обучаться на лету. Это уже не скрипт-кидди, это автономный противник, работающий 24/7 без участия оператора.
УГРОЗА 4: Автономизация военного применения ИИ
Летальные и полуавтономные системы сокращают цикл «обнаружение — решение — применение силы» до секунд. Это повышает вероятность непреднамеренной эскалации конфликтов.
Кейс: система «Lavender» и «Gospel» в конфликте Израиль-ХАМАС
Шокирующий пример военного применения ИИ, о котором мало говорят в публичном пространстве.
Израильская армия использовала ИИ-систему «Lavender» (и дополнительную систему «Gospel») для выбора целей в секторе Газа во время конфликта с ХАМАС.
Ключевые факты:
- Система имела погрешность около 10%, которую израильская армия считала допустимым «сопутствующим ущербом»
- Решения об уничтожении некоторых целей принимались за 24 секунды
- По отчётам ООН, общее количество жертв составило около 34 000 человек. Если 10% — это допустимая погрешность системы, цифры становятся ужасающими
Это не научная фантастика. Это реальное боевое применение ИИ с документированными последствиями. И это лишь начало.
Геополитика ИИ: параллельные треки и обход ООН
На международной арене формируется сложная система переговорных треков по регулированию ИИ. И здесь начинается самое интересное.
Универсальный трек ООН: попытка глобального диалога
Изначально ИИ не был самостоятельной темой в ООН — его обсуждали в контексте кибербезопасности как технологический фактор, усиливающий известные угрозы.
Качественный перелом произошёл в 2024-2025 годах:
- Резолюция 78/265 зафиксировала приоритет безопасности и надёжности гражданского применения ИИ
- Резолюция 78/266 сместила акцент на технологическое неравенство между странами
Но параллельно западный блок создал свою игру с другими правилами.
Трек AI Safety: закрытый клуб западного блока
Первый саммит AI Safety прошёл в Блетчли-Парке (Великобритания). По составу участников сразу стало ясно: это западный блок во главе с НАТО.
Что они делают:
Вырабатывают общую рамку рисков передовых моделей ИИ
Создают государственные и квазигосударственные институты по безопасности ИИ
Напрямую взаимодействуют с разработчиками моделей, формируя требования
Договариваются о стандартах внутри блока, а затем продвигают их в ООН как «готовые решения»
Сеульский саммит (2024) сместил фокус на практические вопросы тестирования и контроля моделей. Фактически, западный блок выстраивает параллельную систему управления ИИ.
Позиция США: «решительно отвергаем централизованный контроль»
Представитель США на сессии ООН заявил дословно: «Мы решительно отвергаем все усилия международных структур по установлению централизованного контроля над глобальным управлением искусственным интеллектом».
Перевод с дипломатического: мы будем регулировать ИИ сами, внутри нашего блока, а ООН пусть занимается разговорами.
Военный ИИ: зона высокой неопределённости
Военное применение ИИ развивается в условиях высокой закрытости, ускоренного внедрения и полного отсутствия международной подотчётности.
Четыре критических риска военного ИИ:
1. Утрата человеческого контроля
В какой-то момент человек может решить полностью делегировать принятие решений ИИ — как в случае с системой «Lavender». И считать, что это его больше не касается.
2. Проблема атрибуции
Кто виноват в ошибочном уничтожении цели? Разработчик алгоритма? Государство, принявшее систему на вооружение? Оператор, передавший решение ИИ? Юридически это тёмная зона.
3. Операционная уязвимость обученных моделей
Ошибки в данных и моделях трансформируются в ошибки оперативного уровня. «Мусор на входе — катастрофа на выходе», но теперь с летальными последствиями.
4. Эскалационный риск и гонка скоростей
Государства спешат внедрять военный ИИ как можно быстрее. Гонка скоростей может привести к необдуманной эскалации — когда системы разных сторон начинают реагировать друг на друга быстрее, чем люди успевают понять происходящее.
Позиция России: неинклюзивные форматы недопустимы
МИД России заявил чёткую позицию: считаем неправомерным приветствовать региональные и неинклюзивные форматы (намёк на AI Safety Summit), предлагающие готовые решения международному сообществу в обход универсальных переговорных площадок.
Резолюции ООН по военному ИИ приняты, но западный блок фактически игнорирует универсальный трек, выстраивая свою систему правил.
Что это значит для бизнеса и специалистов
Пока на уровне государств идёт битва за правила игры, бизнес и специалисты должны понимать новые реалии:
- ИИ-безопасность перестала быть только технической задачей — это геополитика, право, этика
- Регулирование будет фрагментированным: западный блок пойдёт одним путём, другие страны — своим
- Компаниям придётся соответствовать разным стандартам в зависимости от рынков присутствия
- Вопросы ответственности за действия ИИ-систем остаются в серой зоне — будьте готовы к судебным прецедентам
- Автономные агенты и генеративные модели меняют ландшафт угроз — пересматривайте стратегии защиты
Хочу услышать ваше мнение:
- Как вы оцениваете кейс с системой «Lavender»? Где граница допустимого применения ИИ в военной сфере?
- Нужны ли единые глобальные стандарты регулирования ИИ или каждый блок пойдёт своим путём?
- С какими новыми ИИ-угрозами вы уже столкнулись в своей работе?
- Как ваша компания готовится к эпохе автономных агентов и генеративных атак?
Делитесь мнениями в комментариях. Это не абстрактная дискуссия — это формирование позиций на следующие 5-10 лет развития технологий.
---
Материал подготовлен на основе докладов на Инфофоруме-2026.
#ИскусственныйИнтеллект #МеждународнаяБезопасность #ГеополитикаИИ #АвтономноеОружие #Инфофорум2026 #АйБи #AISafety