Добавить в корзинуПозвонить
Найти в Дзене
Николай Григорьев

На самом «нижнем» уровне это выглядит как конфликт «человек — алгоритм»: работник спорит не столько с начальником, сколько с невидимой

системой, которая выдаёт рейтинги, расписания и решения по бонусам. На функциональном уровне начинается борьба KPI: то, что оптимизирует логистику, может ухудшать качество сервиса; то, что снижает кредитный риск, может бить по объёмам продаж. Есть и групповой уровень: алгоритмы могут укреплять существующие неравенства между центром и регионами, офисом и полем, молодыми «цифровыми» сотрудниками и теми, для кого новая технологическая реальность даётся тяжелее. Возникает ощущение «цифровых каст» — одни управляют и понимают алгоритмы, другие живут в мире непрозрачных решений. Наконец, есть внешний уровень: конфликты с регуляторами, иски клиентов и работников, медийные истории о дискриминации и нарушении приватности. Здесь уже под ударом оказываются не только репутация и деньги, но и право компании работать в привычном режиме. Привычная управленческая реакция — попытаться сделать так, чтобы этих конфликтов не было видно. Сгладить, отфильтровать, «не выносить сор из избы». Но в логике Индуст

На самом «нижнем» уровне это выглядит как конфликт «человек — алгоритм»: работник спорит не столько с начальником, сколько с невидимой системой, которая выдаёт рейтинги, расписания и решения по бонусам. На функциональном уровне начинается борьба KPI: то, что оптимизирует логистику, может ухудшать качество сервиса; то, что снижает кредитный риск, может бить по объёмам продаж.

Есть и групповой уровень: алгоритмы могут укреплять существующие неравенства между центром и регионами, офисом и полем, молодыми «цифровыми» сотрудниками и теми, для кого новая технологическая реальность даётся тяжелее. Возникает ощущение «цифровых каст» — одни управляют и понимают алгоритмы, другие живут в мире непрозрачных решений.

Наконец, есть внешний уровень: конфликты с регуляторами, иски клиентов и работников, медийные истории о дискриминации и нарушении приватности. Здесь уже под ударом оказываются не только репутация и деньги, но и право компании работать в привычном режиме.

Привычная управленческая реакция — попытаться сделать так, чтобы этих конфликтов не было видно. Сгладить, отфильтровать, «не выносить сор из избы». Но в логике Индустрии 5.0 и современной корпоративной ответственности куда продуктивнее другой подход: признать, что конфликты вокруг ИИ — не баг, а важный источник ранних сигналов. Они показывают, где именно алгоритмы пересекают границы допустимого, где ломается ощущение справедливости и где компания рискует потерять людей быстрее, чем успеет посчитать экономию.

Совет директоров, который видит в ИИ-конфликтах такой инструмент диагностики, получает дополнительный канал контроля за реальной ценой цифровизации.

Цифровое достоинство как часть мандата совета

В ядре всех этих историй — вопрос человеческого достоинства. Насколько человек остаётся субъектом, а не просто объектом управления данными?

Можно сколько угодно говорить о «ценностях компании», но если алгоритмические практики превращают людей в набор цифровых метрик, декларации перестают работать. Сотрудник, который не понимает, по каким правилам его оценивают и перераспределяют, рано или поздно перестаёт доверять системе. Клиент, который получает решения от непрозрачного скоринга, перестаёт доверять бренду. И даже если юридически компания формально права, с точки зрения долгосрочной устойчивости это проигрыш.

На уровне совета директоров это можно и нужно переводить в язык политики. Речь не о том, чтобы писать «великий этический кодекс ИИ», а о том, чтобы зафиксировать несколько простых, но жёстких рамок:

– человек имеет право понимать логику решений, влияющих на его судьбу и доход;

– у человека должно быть право оспорить значимое алгоритмическое решение и добиться рассмотрения кейса живым руководителем;

– цифровой мониторинг должен быть ограничен понятными целями, а не превращаться в тотальную слежку «на всякий случай»;

– работники и их представители должны быть вовлечены в обсуждение и пилотирование ИИ-систем, которые радикально меняют условия труда.

Такие принципы уже появляются в лучших практиках корпоративного управления по всему миру. По сути, это конвертация абстрактного достоинства в очень конкретный управленческий стандарт: что с людьми допустимо делать с помощью ИИ, а что — нет.

Как может выглядеть взрослая AI-повестка совета

В реальности у зрелых советов директоров повестка по ИИ складывается вокруг нескольких связок.

Первая связка — стратегия и риск бездействия. Борд обсуждает не «применим или не применим ИИ», а где именно он критичен для конкурентоспособности, сколько времени у компании есть на вход в игру и какая роль выбора скорости внедрения в общем риск-профиле. ИИ перестаёт быть пунктом повестки CIO, а становится элементом стратегической повестки.

Вторая связка — эффективность и доверие. Любой крупный ИИ-кейс рассматривается не только через P&L, но и через призму влияния на людей: на занятость, навыки, благополучие, психологическую безопасность. Там, где экономия достигается ценой постоянного конфликта и подрыва доверия, совет задаёт вопрос: действительно ли это устойчивый эффект, или компания зарабатывает, пожирая собственный человеческий капитал.