Добавить в корзинуПозвонить
Найти в Дзене

💼 Алгоритм советует, директор отвечает: правовые риски ИИ в управлении компанией

Существуют компании, которые уже применяют ИИ для анализа рисков и моделирования последствий корпоративных решений. Известны даже случаи, когда алгоритмы включали в состав совета директоров с правом голоса. Пока это скорее частные эксперименты. Но вот использование ИИ как аналитического советника - уже почти повседневность. И здесь возникает неудобная вещь: когда решение, принятое с опорой на алгоритм, приводит к убытку компании, ИИ отвечать за свои советы не может. Тогда платит директор. Всегда. Корпоративное право России строится на принципе, который не знает исключений: управленческая власть и персональная ответственность принадлежат физическому лицу. Алгоритм ИИ этому критерию не отвечает - он не лицо, не субъект, не ответчик. И вся ответственность за то, как им воспользовался директор, остается на директоре. Судебный правоприменительный подход здесь так же устойчив: ссылка на внешний источник - отчет, рекомендацию, заключение - не освобождает руководителя от обязанности понимать

💼 Алгоритм советует, директор отвечает: правовые риски ИИ в управлении компанией

Существуют компании, которые уже применяют ИИ для анализа рисков и моделирования последствий корпоративных решений. Известны даже случаи, когда алгоритмы включали в состав совета директоров с правом голоса.

Пока это скорее частные эксперименты. Но вот использование ИИ как аналитического советника - уже почти повседневность. И здесь возникает неудобная вещь: когда решение, принятое с опорой на алгоритм, приводит к убытку компании, ИИ отвечать за свои советы не может.

Тогда платит директор. Всегда.

Корпоративное право России строится на принципе, который не знает исключений: управленческая власть и персональная ответственность принадлежат физическому лицу. Алгоритм ИИ этому критерию не отвечает - он не лицо, не субъект, не ответчик. И вся ответственность за то, как им воспользовался директор, остается на директоре.

Судебный правоприменительный подход здесь так же устойчив: ссылка на внешний источник - отчет, рекомендацию, заключение - не освобождает руководителя от обязанности понимать логику вывода.

Суд спросит: директор вообще понял, на чем основан этот вывод алгоритма? Оценил допущения модели? Сопоставил с другими данными? Если нет - защита «ИИ посоветовал» не работает.

Особенно опасна эта история в банкротстве. Когда компания падает, арбитражный управляющий и кредиторы смотрят, какие решения привели к несостоятельности. Принял прогноз, противоречивший очевидным рыночным сигналам, без возражений - это неразумное поведение. А там и до субсидиарки недалеко.

Переложить ответственность на вендора тоже не получится. Лицензионные договоры написаны так, чтобы этого не допустить: система предоставляет информацию, а не советы; точность результатов не гарантируется; ответственность за решения - на пользователе. Стандартная позиция: «Мы поставили инструмент, а не решение». Суды, как правило, с этим соглашаются.

Что реально защищает директора? Процедура.

Решили активно использовать ИИ, значит в протоколах стоит зафиксировать, что ИИ - источник данных, а не автор решения. Корпоративный протокол должен отражать, какие вопросы задавались, какие ограничения модели обсуждались, какие альтернативы рассматривались. При стратегических решениях - независимое заключение специалиста, подтверждающее обоснованность допущений алгоритма.

Правовой вакуум вокруг ИИ в корпоративном управлении, возможно, - временное явление. Но пока директора работают по старым правилам и несут ответственность в полном объеме. Вопрос только в том, выстроена ли у вас процедура - или вы просто доверяете алгоритму и надеетесь на лучшее.

А вы используете ИИ-инструменты в управлении компанией?

#бизнес #корпоративное_право