Добавить в корзинуПозвонить
Найти в Дзене

Банк России создал рабочую группу для регулирования ответственности ИИ

11 ноября 2025 года Банк России провел первое заседание новой рабочей группы, посвященное вопросам применения искусственного интеллекта. Представители регулятора, финансовых организаций и IT-компаний начали обсуждение подходов к ответственности за ущерб, причиненный алгоритмами. Ключевой задачей встречи стал анализ достаточности существующих правовых инструментов для защиты пострадавшей стороны. Регулятор на данном этапе придерживается риск-ориентированного подхода и выступает за «мягкое регулирование». В Банке России полагают, что действующее законодательство уже учитывает основные риски: финансовая организация несет ответственность перед клиентом за нарушение условий договора независимо от того, использовался ли ИИ при принятии решения. Позиция ЦБ заключается в осторожном внедрении новых норм, чтобы не затормозить технологическое развитие отрасли. При этом продолжается изучение международной практики и вопросов распределения ответственности между пользователями и создателями моделей.
   Банк России создал рабочую группу для регулирования ответственности ИИ
Банк России создал рабочую группу для регулирования ответственности ИИ

11 ноября 2025 года Банк России провел первое заседание новой рабочей группы, посвященное вопросам применения искусственного интеллекта. Представители регулятора, финансовых организаций и IT-компаний начали обсуждение подходов к ответственности за ущерб, причиненный алгоритмами. Ключевой задачей встречи стал анализ достаточности существующих правовых инструментов для защиты пострадавшей стороны.

Регулятор на данном этапе придерживается риск-ориентированного подхода и выступает за «мягкое регулирование». В Банке России полагают, что действующее законодательство уже учитывает основные риски: финансовая организация несет ответственность перед клиентом за нарушение условий договора независимо от того, использовался ли ИИ при принятии решения. Позиция ЦБ заключается в осторожном внедрении новых норм, чтобы не затормозить технологическое развитие отрасли. При этом продолжается изучение международной практики и вопросов распределения ответственности между пользователями и создателями моделей.

Крупные участники рынка поддерживают идею саморегулирования. В Альянсе в сфере ИИ отмечают, что введение специальных составов правонарушений избыточно. Представители IT-сектора подчеркивают, что алгоритм не является субъектом права, а служит инструментом, поэтому отвечать за последствия должны люди и организации, принимающие решения. Московская биржа, в свою очередь, фокусируется на мониторинге аномалий и сертификации систем, не вмешиваясь в архитектуру торговых роботов участников торгов.

Юридическое сообщество, однако, видит необходимость в адаптации законодательства. Опрошенные изданием Forbes консультанты указывают на проблему «черного ящика»: из-за сложности нейросетей доказать причинно-следственную связь между ошибкой в коде и ущербом крайне трудно. Эксперты предлагают ввести технические паспорта для данных, используемых при обучении моделей, и законодательно закрепить распределение ответственности. Это позволило бы банкам предъявлять регрессные требования к разработчикам в случае фундаментальных дефектов алгоритмов.

Дискуссия о регулировании происходит на фоне ужесточения контроля в смежных сферах: ранее Минцифры подготовило поправки об уголовной ответственности за преступления с использованием ИИ. Участники рабочей группы продолжат выработку стандартов, пытаясь найти баланс между защитой прав инвесторов и поддержкой инноваций.

Читайте «Вот Так»:
На сайте | в Телеграме | во ВКонтакте