В публичных дискуссиях всё чаще звучит метафора: внешняя политика Дональд Трамп напоминает работу генеративной модели. Резкие заявления, демонстративная непредсказуемость, быстрые развороты — всё это выглядит как «LLM-логика», перенесённая в геополитику.
Однако за этим эффектом стоит не столько искусственный интеллект, сколько давно описанные инструменты теории международных отношений.
«Непредсказуемость как инструмент» — старая технология IR
То, что сегодня описывают как «модельный хаос», в классической политологии известно десятилетиями.
Речь идёт о brinkmanship и madman theory — стратегиях, при которых актор демонстрирует готовность к резкой эскалации, чтобы сделать угрозу более убедительной.
Логика проста: если оппонент не может точно оценить пределы рациональности, цена игнорирования угрозы возрастает.
Именно поэтому подобные тактики применялись ещё в эпоху холодной войны — задолго до нейросетей.
Важно другое: эмпирические исследования подчёркивают, что madman tactics не гарантируют успеха и повышают риск аварийной эскалации.
Непредсказуемость усиливает сигнал, но одновременно снижает управляемость.
Почему это психологически похоже на LLM
Сходство возникает не на уровне технологий, а на уровне восприятия. Генеративные языковые модели:
- формулируют ответы уверенно даже при высокой неопределённости;
- усиливают «сильные токены» — резкие, контрастные формулировки;
- легко меняют позицию при новом prompt или контексте.
Политический аналог — медийно мощные тезисы с последующей быстрой коррекцией деталей, если меняется реакция рынков, союзников или электората.
Для внешнего наблюдателя это выглядит как итеративная генерация ответов, а не как линейная стратегия.
Использует ли администрация США генеративный ИИ на практике
Здесь принципиально важно разделять два уровня.
А) ИИ как инфраструктура государства — да
В американском оборонном и управленческом контуре генеративный ИИ институционализирован.
У Пентагона существуют специализированные инициативы, включая Task Force Lima, руководства по ответственному ИИ (RAI) и методические рамки применения генеративных моделей в аналитике и коммуникациях.
Речь идёт об ИИ как decision-support: ускорение анализа, сценарное моделирование, работа с массивами текстов.
Б) «Трамп принимает решения по подсказкам ChatGPT» — нет
Публичных подтверждений этому не существует.
Корректно рассматривать «LLM-метафору» не как факт, а как аналитический приём — способ описать стиль принятия решений в условиях ускорения информации и давления медийной среды.
Индикаторы LLM в политике США
Индикатор 1. «Следы LLM» в документах и публичных тезисах
1.1. Повторяющиеся рамки и симметричные конструкции
В речах и официальных заявлениях Трампа системно повторялись одни и те же шаблонные логические каркасы:
- «Мы были слабы → теперь мы сильные»
- «Другй обманывал → мы исправили»
- «Катастрофа → лучшее решение в истории»
Эти рамки:
- почти не зависят от темы (торговля, НАТО, миграция, Китай);
- легко масштабируются;
- допускают резкую замену переменных без изменения структуры.
С точки зрения лингвистики это похоже на prompt-agnostic шаблон, где меняются аргументы, но не логика.
1.2. Шаблонные оговорки и «безопасные хвосты»
Характерная особенность — добавление универсальных оговорок:
- “Many people are saying…”
- “We’ll see what happens”
- “Nobody knows better than me”
Они выполняют ту же функцию, что и disclaimer в LLM-ответах:
- снижают юридическую и политическую ответственность;
- сохраняют пространство для последующего разворота;
- не требуют верификации.
1.3. Резкие обобщения вместо операциональных деталей
Во многих документах и выступлениях:
- максимум эмоциональной силы в headline;
- минимум конкретики в механизмах реализации;
- детали появляются после реакции среды.
Это не стиль классической бюрократии, а стиль генерации гипотез, а не финальных решений.
Вывод по индикатору 1:
Наблюдается устойчивая модульность и повторяемость форм — сигнал для лингвистической экспертизы, но не доказательство ИИ.
Индикатор 2. Политика как A/B-тестирование
2.1. Взаимоисключающие сигналы как метод
Типовой паттерн администрации Трампа:
- заявление A (жёсткое, максималистское);
- параллельно — заявление B (смягчающее или противоположное);
- мониторинг реакции:
рынков,
союзников,
внутриполитических акторов; - выбор линии, давшей наименьший «штраф».
Примеры областей:
- торговые войны;
- отношения с НАТО;
- санкционная политика;
- КНДР и Иран.
Это не хаос, а разветвлённая проверка гипотез, крайне похожая на A/B-логику.
2.2. Рынки как функция reward
Особенно показательно, что:
- после негативной реакции рынков часто следовал «смягчающий» твит;
- позитивная реакция закреплялась повторением тезиса.
Это эквивалент онлайн-оптимизации:
если reward ↑ → усиливаем сигнал
если reward ↓ → корректируем или отступаем
Даже без ИИ — это алгоритмическое мышление.
2.3. Делегированная противоречивость
Противоречивые сигналы часто исходили:
- от президента;
- от разных членов администрации;
- в одном и том же временном окне.
Функционально это похоже на параллельную генерацию ответов, а не на единую стратегическую линию.
Индикатор 3. Ускорение цикла решений
3.1. Разрыв с классическими бюрократическими лагами
Традиционно:
- позиция формируется неделями;
- согласуется межведомственно;
- фиксируется документально.
В эпоху Трампа:
- позиция могла меняться в течение часов или дней;
- публичное заявление опережало согласование;
- документы догоняли риторику.
Это признак decide → observe → adjust, а не analyze → decide → execute.
3.2. War-room логика вместо процедур
Фактически:
- СМИ и соцсети становились частью decision loop;
- твит = пробный шар;
- реакция = входной сигнал.
Это невозможно без:
- ускоренной аналитики;
- плотных war-room структур;
- автоматизированного мониторинга.
ИИ здесь не обязателен, но без цифровой инфраструктуры такой темп невозможен.
3.3. Снижение «стоимости отмены»
Решения и заявления легко отзывались или переосмысливались:
- без потери легитимности внутри собственной аудитории;
- без формального признания ошибки.
Это характерно для систем, где:
- каждое решение считается итерацией,
- а не окончательным состоянием.
Сводный вывод
Мы наблюдаем не «ИИ у власти», а политику, структурно похожую на работу генеративных и оптимизационных систем:
- модульные шаблоны вместо уникальных доктрин;
- множественные гипотезы вместо одной линии;
- быстрые итерации вместо институциональной инерции.
Это делает метафору LLM аналитически полезной, но опасной при буквальном прочтении.
Главный риск — не ИИ, а перенос логики эксперимента в сферу, где ошибка может иметь геополитическую цену.