Добавить в корзинуПозвонить
Найти в Дзене

Мы живём в логике 1941 года

Мы до сих пор живём по логике 1941 года.
Те же штабы, те же совещания, те же таблицы. Разница только в том, что экранов стало больше.
Телефоны, мессенджеры, красивые отчёты. Но главный вопрос другой:
используем ли мы цифровые двойники и ИИ,
которые могут просчитать последствия решений
до того, как мы их подпишем? Сегодня в 9 из 10 организаций «планирование» — это вручную забитые таблицы.
Сроки ставятся «от обратного»: надо к февралю, значит, к февралю. Зависимости между работами не прорисованы.
Критический путь не считается.
Риски и сценарии не моделируются. Это не цифровое управление.
Это всё тот же 1941‑й, только с Excel. График существует как картинка для отчёта,
а не как рабочий инструмент. Признаки очень простые: В такой логике график — декорация для совещаний.
Цифровизации нет. Есть 1941 год с Excel:
графики рисуют ради отчёта,
а управляют по памяти, телефону и совещаниям. В этой среде ИИ и цифровой двойник
превращаются в красивую игрушку.
Им просто не на что опереться. Про ИИ
Оглавление

1941 год с Excel

Мы до сих пор живём по логике 1941 года.
Те же штабы, те же совещания, те же таблицы.

Разница только в том, что экранов стало больше.
Телефоны, мессенджеры, красивые отчёты.

Но главный вопрос другой:
используем ли мы цифровые двойники и ИИ,
которые могут просчитать последствия решений
до того, как мы их подпишем?

График как декорация

Сегодня в 9 из 10 организаций «планирование» — это вручную забитые таблицы.
Сроки ставятся «от обратного»: надо к февралю, значит, к февралю.

Зависимости между работами не прорисованы.
Критический путь не считается.
Риски и сценарии не моделируются.

Это не цифровое управление.
Это всё тот же 1941‑й, только с Excel.

График существует как картинка для отчёта,
а не как рабочий инструмент.

Как выглядит отсутствие гигиены графиков

Признаки очень простые:

  • сроки задаются «от даты» и «для отчёта», а не от объёма и ресурсов;
  • связи между работами не прорисованы;
  • никто не может назвать критический путь;
  • риски и сценарии не моделируются.

В такой логике график — декорация для совещаний.
Цифровизации нет.

Есть 1941 год с Excel:
графики рисуют ради отчёта,
а управляют по памяти, телефону и совещаниям.

В этой среде ИИ и цифровой двойник
превращаются в красивую игрушку.
Им просто не на что опереться.

Кто тут настоящий бредогенератор

Про ИИ часто говорят: «бредогенератор».
Чёрный ящик, который выдаёт убедительные,
но потенциально ошибочные ответы.

Парадокс в том, что человеческий коллектив
выглядит почти так же.

Ни один руководитель не может восстановить
всю цепочку рассуждений своего штаба
или экспертной группы.

Коллектив, как и ИИ, — непрозрачная система
с непредсказуемым выходом для внешнего наблюдателя.

Почему мы верим коллективу, но не ИИ

Почему же коллективу мы доверяем,
а ИИ — нет?

Современная философия доверия
даёт неожиданный ответ.

Мы доверяем коллективу не потому,
что он прозрачен.
Мы доверяем ему, хотя он непрозрачен.

Вокруг коллектива десятилетиями
строилась архитектура проверки:

  • каждый может проверить другого;
  • репутация зависит от качества суждений;
  • конфликты идей заставляют пересматривать решения;
  • время отбирает устойчивые практики;
  • существуют социальные механизмы исправления ошибок.

Мы верим не логике внутри коллектива.
Мы верим архитектуре верификации вокруг него.

Парадокс прозрачности

В начале 2000‑х философ Онора О’Нилл
описала парадокс транспарентности.

Чем больше общество требовало прозрачности
от институтов, тем ниже становилось доверие.

Формула «больше информации → больше доверия»
не сработала.

Требование прозрачности часто означает,
что доверие уже потеряно.
А поток данных порой рождает
больше вопросов, чем ответов.

Чтобы рационально верить системе,
нам не нужна полная прозрачность её внутренней логики.
Нам нужна надёжная архитектура проверки.

Ошибка в подходе к ИИ

К людям мы этой полной прозрачности не требуем.
Мы спокойно живём с тем,
что коллектив мыслит непрозрачно.

Но к ИИ отношение другое.
От него хотят объяснить каждый шаг,
и при этом редко строят вокруг него
такой же контур проверки, как вокруг людей.

Мы путаем две вещи:

  • непрозрачность внутренней логики;
  • отсутствие внешней архитектуры проверки.

ИИ, как и коллектив, может быть бредогенератором внутри.
Разница в том, что у коллектива
архитектура проверки уже встроена.

У ИИ её нет по умолчанию.
Её нужно спроектировать и встроить извне:
через независимые тесты, мониторинг,
механизмы коррекции, сигналы неопределённости
и человека в цикле.

Где начинается моральная ответственность

Пока у нас нет инструментов моделировать последствия,
ошибки неизбежны и в чём‑то простительны.
Мы делаем лучшее из того,
что можем при ограниченных средствах.

Но как только у нас появляются
цифровые двойники и ИИ‑системы,
способные заранее просчитать
критические пути, узкие места и риски,
часть ответственности смещается.

Если инструменты есть,
а решения всё равно принимаются «на глаз»,
это уже не просто ошибка.
Это форма бездействия — отказ
воспользоваться доступной предосторожностью.

В этот момент ИИ перестаёт быть
«игрушкой про будущее».
Он становится вопросом этики управления
здесь и сейчас.