Добавить в корзинуПозвонить
Найти в Дзене
Право первых

«Приключения Электроника»: кто ответит за робота?

Одни фильмы мы пересматриваем ради ностальгии, другие — чтобы убедиться, что ничего не поняли в детстве. «Приключения Электроника» — точно второй случай.
Помните: профессор Громов создает робота, идеально похожего на живого мальчика. Электроник сбегает, заводит друзей, мечтает «стать человеком». А профессор пытается его поймать — как сбежавшее имущество. В детстве это выглядело несправедливостью.

Одни фильмы мы пересматриваем ради ностальгии, другие — чтобы убедиться, что ничего не поняли в детстве. «Приключения Электроника» — точно второй случай.

Помните: профессор Громов создает робота, идеально похожего на живого мальчика. Электроник сбегает, заводит друзей, мечтает «стать человеком». А профессор пытается его поймать — как сбежавшее имущество. В детстве это выглядело несправедливостью. Сейчас, на фоне того, как в мире всерьез обсуждают регулирование ИИ, становится понятно: мы смотрели готовую юридическую задачу.

Сгенерировано Kandinsky
Сгенерировано Kandinsky

Громов за все в ответе

С точки зрения права, Электроник — вещь. У него нет паспорта, дееспособности, права голоса. Он — собственность профессора. И это не какая-то серая зона: Гражданский кодекс устроен так, что за вред, причиненный вещью, отвечает ее владелец, если не докажет отсутствия своей вины (статьи 1064 и 1079 ГК РФ). Прокуратура, разъясняя этот подход, указывает: когда система не обладает правосубъектностью, ответственность возлагается на человека — разработчика, оператора или пользователя — в зависимости от того, кто именно контролировал ее в момент причинения вреда [1].

Другими словами: если бы Электроник что-то сломал или кого-то травмировал, отвечал бы Громов. Как разработчик и как владелец.

Но вот что интересно. В современных правовых дискуссиях разработчик, оператор и пользователь — это три разные роли. И степень их ответственности различается в зависимости от того, кто именно контролировал систему в момент, когда случился вред [2].

В случае с фильмом Громов — одновременно и разработчик, и владелец. Он создал архитектуру, он ею владеет. Но кто оператор? А кто пользователь? И главное — кто отвечает за то, что робот сбежал?

Оператор vs пользователь: кто виноват в побеге?

В реальном мире оператор — это тот, кто обслуживает систему, следит за ее работой, настраивает. Пользователь — тот, кто применяет ее для своих задач. Ответственность распределяется так: оператор отвечает, если вред причинен из-за ошибки в обслуживании или настройке; пользователь — если нарушил правила эксплуатации; разработчик — если вред стал следствием скрытых дефектов, заложенных на этапе проектирования.

В фильме оператором можно считать самого Громова: он подключил Электроника к сети, он перепутал напряжение, после чего робот и сбежал. Если бы вред в этот момент был причинен не самому роботу, а третьим лицам, отвечал бы Громов уже не как разработчик, а как оператор — тот, кто допустил ошибку при эксплуатации.

Пользователем же можно считать Сыроежкина — и здесь начинается самое сложное. Пользователь обладает наименьшей степенью контроля и потому, как правило, не привлекается к ответственности, если не установлена его вина. В фильме так и происходит: Сыроежкин скорее «пострадавший» от чуда техники, чем ответственное лицо.

Есть и еще одна важная деталь: если вред возник по причине нарушения правил эксплуатации, отвечать должен именно пользователь. Это напрямую отсылает нас к современным дискуссиям: если беспилотный автомобиль попал в аварию, потому что владелец не обновил прошивку, — отвечает владелец, а не производитель.

«Учитель» ИИ: персонаж, которого в фильме нет

В современных правовых концепциях выделяют еще одну фигуру — «учителя» ИИ. Это человек, который обучает систему, адаптирует ее алгоритмы. Исследователи подчеркивают: чем выше автономность системы и продолжительность обучения, тем выше ответственность «учителя» [2].

В фильме такого персонажа нет. Громов создал робота с уже заложенной программой. Но если бы он продолжал дообучать Электроника после запуска — отвечал бы уже не только как разработчик, но и как «учитель». Это как если бы автопилот продолжал обучаться в процессе эксплуатации, а инженер удаленно корректировал его алгоритмы. Кто тогда ответит за ошибку?

Современные правовые модели предлагают дифференцированную ответственность в зависимости от степени контроля над системой и возможности предвидеть наступление вреда [2]. В этом смысле фильм ставит вопрос, на который законодатели ищут ответ до сих пор.

ИИ как источник повышенной опасности

Есть еще один важный поворот. Статья 1079 Гражданского кодекса позволяет рассматривать системы с ИИ как источник повышенной опасности — наравне с автомобилем или опасным производством. Тогда оператор такой системы будет нести ответственность независимо от вины.

Применительно к Электронику это звучит радикально, но по сути верно. Робот, обладающий автономией и способный к непредсказуемым действиям, — чем не источник повышенной опасности? Если бы суд рассматривал дело о побеге, он вполне мог бы прийти к выводу: Громов обязан был застраховать свою разработку. Или хотя бы держать ее под замком.

Что решили законодатели

Пока юристы спорят, государство действует. Законопроект «Об основах госрегулирования ИИ» (разработан Минцифры, прошел общественное обсуждение до 15 апреля 2026 года, планируется вступление в силу с 1 сентября 2027 года) вводит четкое распределение ролей: разработчик модели, оператор системы, владелец сервиса, пользователь. У каждой роли — свои обязанности и своя ответственность. При этом ответственность наступает, только если субъект заведомо знал или должен был знать о возможности получения незаконного результата.

Разработчик освобождается от ответственности, если докажет, что принял все меры для предотвращения вреда — или если ущерб возник из-за неправильной эксплуатации системы уже пользователем или оператором .

И знаете что? Профессор Громов прошел бы этот тест. Он создал робота, протестировал его, спрятал в чемодане, повез на конгресс. Все меры предосторожности принял. А побег случился из-за того, что он перепутал напряжение в розетке. По новому закону это была бы зона ответственности оператора — то есть его самого, но уже в другой роли.

Подробнее о законопроекте я рассказал в статье «Нейросеть ошиблась: кто ответит? Как новый закон защитит нас и укрепит технологическую независимость России».

Почему это важно сегодня

Мы уже живем в мире, где беспилотные автомобили принимают решения на дороге, медицинские алгоритмы ставят диагнозы, а рекомендательные системы влияют на поведение людей. И каждый сбой ставит один и тот же вопрос: кто ответит?

«Приключения Электроника» вышли в 1979 году — за сорок с лишним лет до того, как этот вопрос перестал быть теоретическим. Профессор Громов отвечал за все. Мы же теперь пытаемся разделить его ответственность между разработчиком, оператором, пользователем и «учителем». Прогресс? Возможно. Но от этого не легче.

А вы как думаете: должна ли ответственность за ИИ быть распределена между разработчиком, оператором и пользователем — или всю полноту должен нести создатель, как профессор Громов? Делитесь в комментариях.

Источники

1. Прокуратура республики разъясняет: «Ответственность за убытки, причиненные в результате использования искусственного интеллекта» // Генеральная прокуратура РФ. — URL: https://epp.genproc.gov.ru/ru/proc_06/activity/legal-education/explain/e5871325/

2. Хисамова А. Р. Гражданско-правовая ответственность за вред, причинённый искусственным интеллектом // КиберЛенинка. — URL: https://cyberleninka.ru/article/n/grazhdansko-pravovaya-otvetstvennost-za-vred-prichinennyy-iskusstvennym-intellektom