В первой статье
было сказано о том, как архаичные нарративы — «сделай сам», «иди в окоп», «сперва добейся» — захватывают публичное пространство, становясь удобным инструментом и для власти, и для оппозиции, и для обывателя. Примитивное мышление проникает в экономику, политику и военное дело, подменяя системный подход культом «сильной руки». Но архаика не останавливается на уровне лозунгов. Она уже встроена в сами механизмы управления — и, что тревожнее всего, начинает воспроизводиться в искусственном интеллекте, который создавался как инструмент преодоления человеческой ограниченности.
Сегодня человеческая цивилизация сталкивается с новым парадоксом: системы, которые должны быть вершиной рациональности — государственная бюрократия и передовые нейросети, — всё чаще действуют по одним и тем же архаичным лекалам. И, подобно двум чёрным ящикам, они начинают конкурировать друг с другом за право оставаться непрозрачными. А общество оказывается перед выбором: либо настраивать один из них, либо мириться с тем, что оба останутся загадкой, работающей по принципу «начальник сказал — машина подтвердила».\
Одинаковые чёрные ящики
Для обычного человека государство и ИИ функционально идентичны:
Характеристика - Государство - Искусственный интеллект
- Вход - Голоса, налоги, жалобы - Запросы, промпты, данные
- Обработка - Непонятные процедуры - Непонятные веса модели
- Выход - Законы, приказы, решения - Ответы, рекомендации
- Настройки - Недоступны - Недоступны
- Прозрачность - «Доверяйте институтам» - «Доверяйте алгоритму»
- Объяснение - «Система так работает» - «Модель так обучена»
- Апелляция - Сложна, длительна - Часто невозможна
Гражданин и пользователь — это одна роль. Человек, который взаимодействует с системой, не имея права её настроить.
Бюрократия: тысячелетний чёрный ящик
Для большинства людей государственное управление всегда было чёрным ящиком. Решения принимаются где-то в кабинетах, по непонятным правилам, с использованием критериев, которые не публикуются. Почему один чиновник получает пост, а другой — нет? Почему выделяются средства на один проект, а не на другой? Почему в критической ситуации включается «ручной режим», отменяющий все процедуры? Ответы, как правило, лежат в плоскости личных связей, лояльности и неформальных договорённостей — то есть в той самой архаике, которая тысячелетиями управляла племенами и средневековыми дворами.
Эта система устойчива. Она воспроизводит себя через отбор кадров: наверх поднимаются не те, кто выстраивает институты, а те, кто доказал личную преданность. Её алгоритмы неизменны: приоритет вертикали перед горизонталью, ручное управление перед процедурой, личная ответственность начальника перед системной ответственностью ведомства. И самое главное — она не имеет настроек. Гражданин не может зайти в интерфейс и переключить режим с «архаичного» на «системный». Он может только наблюдать за результатом и гадать, по каким правилам он получен.
ИИ: выученный чёрный ящик
Искусственный интеллект, особенно большие языковые модели, сегодня обучается на массивах текстов, созданных людьми. А люди в последние десятилетия, как мы показали в первой статье, активно насыщают публичное пространство архаичными нарративами. В результате нейросети впитывают тот самый стиль мышления: «навести порядок», «личный контроль», «сильная рука». Они выдают решения, которые кажутся «здравыми», но на деле являются усреднённой имитацией управленческой архаики.
При этом ИИ тоже становится чёрным ящиком. Пользователь не знает, на каких именно данных он обучен, как взвешивались аргументы, почему выбран именно этот вариант ответа. Разработчики часто не спешат раскрывать внутреннюю логику — из коммерческих соображений или опасений, что прозрачность позволит «взломать» модель. В итоге ИИ превращается в двойника бюрократии: такой же непрозрачный, такой же не настраиваемый, такой же склонный к архаике.
Но есть принципиальная разница. Бюрократия по природе своей архаична и непрозрачна — это её эволюционная стратегия выживания. ИИ же стал таким по подражанию, и в теории его можно сделать иным.
Потенциал прозрачности и его цена
Технически ничто не мешает создавать ИИ с открытой логикой. Можно показывать, на каких данных он обучался, объяснять, почему принято то или иное решение (explainable AI), а главное — дать пользователю настройки. Хочешь ответ в духе «вождя племени»? Пожалуйста. Хочешь строгий системный анализ без морализаторства? Выбери соответствующий режим. Хочешь, чтобы ИИ предупреждал: «Внимание, в данном вопросе архаичные подходы ведут к стратегическому проигрышу»? И это возможно.
Но как только мы дадим такую прозрачность и настраиваемость ИИ, возникнет конфликт. Потому что люди начнут сравнивать. Почему у нейросети есть «кнопка системного мышления», а у министерства — нет? Почему я могу спросить у ИИ, почему он предложил именно это решение, а чиновник отвечает отпиской? Почему алгоритм ИИ можно перенастроить под конкретную задачу, а государственный механизм работает по негласным правилам, которые нельзя изменить даже обратной связью?
В этот момент прозрачный ИИ становится не просто удобным инструментом, а политическим фактором. Он демонстрирует, что альтернатива архаике возможна, что решения могут быть объяснимыми, а системы — настраиваемыми. И это неизбежно подрывает легитимность традиционной власти, которая держится во многом на своей «непроницаемости».
Почему обе системы - ИИ и бюрократия - сопротивляются прозрачности? Причины идентичны, хотя системы разные:
Причина - Государство - ИИ
- Власть - Чиновник контролирует процесс - Провайдер контролирует модель
- Сложность - «Народ не поймёт» - «Пользователь не поймёт»
- Риск - «Дадут опасную свободу» - «Дадут опасную настройку»
- Традиция - «Так работают все государства» - «Так работают все модели»
- Ответственность - «Коллегиальное решение» - «Алгоритмическое решение»
Одинаковая логика защиты статуса-кво. В обоих случаях аргумент один: «Вы не сможете этим управлять правильно».
Если сделать ИИ прозрачным, а государство оставить закрытым — возникнет системное противоречие:
Сценарий - Реакция государства
- ИИ: «Вот 3 варианта, выберите» - Государство: «Есть одно решение»
- ИИ: «Индекс архаики: 70%» - Государство: «Традиция не обсуждается»
- ИИ: «Настройте под свои цели» - Государство: «Правила едины для всех»
Со стороны гражданина естественно возникает вопрос :
Почему я могу настроить алгоритм, но не могу настроить закон, по которому живу?
Это не риторика. Это политическое требование, которое возникнет из технологического прогресса.
Почему ИИ — это тестовый полигон?
ИИ проще реформировать, чем государство:
Фактор - ИИ - Государство
- Скорость изменений - Недели, месяцы - Годы, десятилетия
- Сопротивление - Корпорации - Бюрократия + элиты
- Масштаб - Частные компании - Суверенные государства
- Риск провала - Откат к предыдущей версии - Социальные потрясения
Если получится добиться прозрачности от ИИ — будет модель для реформ государства. Это не значит, что ИИ важнее. Это значит, что ИИ — это тренировочная площадка для требований к власти.
Кто сопротивляется и почему?
Группа - Интерес - Аргумент
- Бюрократия - Сохранение власти - «Сложно для понимания»
- ИИ-корпорации - Контроль над продуктом - «Безопасность пользователей»
- Политические элиты - Стабильность системы - «Нестабильность реформ»
- Консервативные институты - Сохранение традиций - «Проверено временем»
Одинаковая защита: «Мы знаем лучше».
Два сценария: синхронизация или подавление
Перед любым государством, где архаичная бюрократия сталкивается с растущей ролью ИИ, встаёт выбор.
Сценарий первый — синхронизация. Начальство тоже становится прозрачным и настраиваемым. Вводятся открытые алгоритмы кадровых решений, публичные обоснования бюджетных ассигнований, цифровые платформы обратной связи, которые реально меняют настройки системы. Бюрократия учится объяснять свои действия так же, как хороший ИИ объясняет свои выводы. В этом случае конфликт снимается: единые принципы распространяются на любые системы принятия решений — человеческие и цифровые. Более того, ИИ становится помощником в этой трансформации, помогая выявлять узкие места и предлагая рациональные альтернативы.
Сценарий второй — обострение. Понимая, что прозрачный и настраиваемый ИИ несёт угрозу их монополии на «правильные решения», архаичное начальство начинает его подавлять. ИИ либо запрещают для серьёзных задач, либо заставляют разработчиков «дообучать» модели так, чтобы они не противоречили официальной линии. Ещё один путь — сделать ИИ таким же непрозрачным, как и бюрократия: закрыть доступ к данным обучения, запретить объяснять логику, убрать любые «кнопки настройки», объявив их «дестабилизирующими». В этом случае ИИ превращается в рупор архаики, а его потенциал остаётся нереализованным.
Почему у нас до сих пор нет «кнопок архаики»
В интерфейсах современных нейросетей пользователь не найдёт переключателя «уровень архаичности». Причина не только в технической сложности. Она глубже: разработчики, как и пользователи, живут в том же институциональном поле, где прозрачность и настраиваемость — неочевидные ценности. Сделать ИИ полностью объяснимым и гибким — значит вступить в конфликт с теми, кто привык управлять «чёрным ящиком».
Кроме того, существует страх: а что, если власти сочтут «слишком рациональные» ответы нежелательными? А что, если «слишком архаичные» ответы назовут экстремизмом? Безопаснее оставить ИИ в серой зоне — не полностью прозрачным, но и не откровенно архаичным. Эта неопределённость удобна для всех, кроме пользователя, который остаётся перед чёрным ящиком, не зная, по каким правилам он работает.
Общий подход: прозрачность как стандарт
Выход из этого тупика лежит не в совершенствовании одного только ИИ, а в установлении единых стандартов для любых систем принятия решений — будь то человек в чиновничьем кресле или нейросеть. Такими стандартами могли бы стать:
- Объяснимость. Любое решение, влияющее на жизнь людей, должно сопровождаться понятным обоснованием, не отсылающим к «особой компетенции» или «личному опыту».
- Настраиваемость. В рамках закона и этических ограничений пользователи (граждане, бизнес, общественные организации) должны иметь возможность влиять на приоритеты системы — будь то через выбор режимов в интерфейсе ИИ или через демократические процедуры для бюрократии.
- Подотчётность. За ошибки должна следовать ответственность, а обратная связь — вести к корректировке алгоритмов, а не к отпискам.
Если эти принципы станут универсальными, то конфликт между ИИ и начальством исчезнет. Оба окажутся в одной системе координат, где архаика — лишь один из возможных режимов, но не единственный и не безальтернативный. Более того, прозрачный ИИ сможет выполнять свою главную функцию: помогать людям и институтам подниматься над примитивными схемами, предлагая системные, взвешенные, долгосрочные решения.
Вместо заключения
Архаика начальства и архаика ИИ — это две стороны одного кризиса. Кризиса, в котором общество, создавшее сложнейшие технологии, продолжает управлять собой по законам племени, а технологии, вместо того чтобы выталкивать нас из этого племени, учатся подражать вождям.
Можно продолжать делать вид, что непрозрачность — это норма. Что «так сложилось исторически». Что «у нас особый путь». Но путь этот ведёт к тому, что ИИ, наш главный инструмент будущего, будет не помогать нам становиться рациональнее, а лишь усиливать самые древние и разрушительные привычки. Мы получим блестящую цифровую имитацию архаики — быструю, масштабируемую, но столь же стратегически проигрышную.
Альтернатива — решиться на прозрачность. Для начальства, для ИИ, для всех систем, от которых зависят жизни людей. Это потребует не технологических прорывов, а политической воли и культурной зрелости. Но иного пути к тому, чтобы цивилизация перестала воспроизводить себя как вечный круговорот примитивных лозунгов и чёрных ящиков, не существует.
В конце концов, выбор прост: либо мы настраиваем свои системы управления — и тогда они начинают работать на нас, либо системы настраивают нас — и мы остаёмся в племени, какими бы сложными ни были наши машины.