Стремительная цифровая трансформация, движимая развитием искусственного интеллекта (ИИ), бросает вызов традиционным правовым системам по всему миру. Россия, осознавая стратегический потенциал ИИ, демонстрирует активную заинтересованность в его развитии, что подтверждается Указом Президента РФ от 10.10.2019 № 490 и утвержденной им Национальной стратегией развития искусственного интеллекта до 2030 года. Однако между стратегическими установками и реальной правовой практикой существует значительный разрыв. Текущее состояние правового регулирования ИИ не отвечает ее технологическим возможностям. Давайте разберемся подробнее.
Сегодня ИИ представляет собой не просто инструмент, а сложный цифровой актив, способный к автономному обучению, анализу информации и принятию решений без прямого управления человеком, что ломает традиционные правовые принципы, создавая многочисленные правовые пробелы в регулировании. Эта фундаментальная неопределенность порождает комплекс серьезных рисков, сконцентрированных вокруг предпринимателей.
Непонимание этих аспектов может превратить мощный инструмент в источник значительных рисков: от многомиллионных исков до репутационных потерь.
Понятие ИИ не закреплено в Гражданском кодексе или ином нормативном акте, имеющем силу закона. На практике это означает, что ИИ как правовой феномен не существует, а рассматривается регуляторами и судами в лучшем случае как сложный программный продукт. Следовательно, любая юридически значимая деятельность, осуществляемая с его помощью, автоматически атрибутируется человеку или организации — владельцу, оператору или разработчику.
В международном юридическом сообществе вопрос определения правовой природы искусственного интеллекта является дискуссионным. В настоящее время сформировалось три основных подхода.
1. Консервативный подход рассматривает ИИ как обычный инструмент — объект права, где вся ответственность полностью лежит на разработчике, производителе или владельце системы. Этот подход, хотя и прост в применении, но показывает свою несостоятельность, когда система действует непредсказуемым образом, не запрограммированным непосредственно ее создателями.
2. Радикальный подход предполагает полное признание ИИ самостоятельным субъектом права. Однако многочисленные критики этого подхода справедливо указывают, что на современном этапе развития технологий это может создать сложные механизмы для уклонения разработчиков от ответственности. Кроме того, наделение ИИ полной правосубъектностью поднимает сложные философско-правовые вопросы о природе сознания и ответственности.
3. Прогрессивный подход предлагает наделить продвинутые системы ИИ ограниченной правосубъектностью, создав новую юридическую категорию "электронной личности". Это означает, что за ним можно закрепить возможность иметь определенные имущественные права (например, для формирования фонда, из которого будут покрываться убытки), но не личные неимущественные права (право на жизнь, имя и т.д.). При этом конечная ответственность всегда должна быть закреплена за человеком или юридическим лицом — оператором, владельцем или разработчиком.
Именно этот путь видят наиболее перспективным многие ведущие эксперты и законодатели.
Особую сложность представляет решение вопросов интеллектуальной собственности. Когда нейросеть создает уникальное художественное произведение, музыкальную композицию или литературный текст, возникает серьезный вопрос – кто автор и правообладатель?
Россия традиционно признает автором исключительно физическое лицо. Нормы Гражданского кодекса РФ недвусмысленно указывают на физическое лицо, творческим трудом которого создан результат, в качестве автора и первоначального правообладателя, что ставит под сомнение правовой статус произведений, созданных без прямого творческого участия человека.
На сегодняшний день контент, дизайн-проекты или программный код, сгенерированные нейросетью без прямого и доказуемого творческого вмешательства человека, с высокой долей вероятности оказываются в правовом подвешенном состоянии. Это ставит под угрозу целые бизнес-модели, построенные на автоматизированной генерации контента. Единственной рабочей стратегией защиты прав пока остается точная документальная фиксация творческого вклада человека на всех этапах — от формулировки запроса и отбора данных до финальной доработки результата, что позволяет представить ИИ в суде как инструмент, аналогичный фотоаппарату или графическому редактору.
А как насчёт ответственности за вред, причиненный действиями нейросети. Кто будет нести гражданско-правовую ответственность, если система на основе ИИ причинит материальный или физический вред?
Классические гражданско-правовые принципы ответственности за вину демонстрируют свою полную неприменимость к ИИ, не обладающим сознанием в традиционном человеческом понимании. Решения, принимаемые современными нейросетевыми системами, часто оказываются необъяснимыми даже для их создателей, что создает практически непреодолимые трудности в доказывании вины в судебных разбирательствах.
В зоне ответственности по разным основаниям и в различных пропорциях могут оказаться:
• разработчик, создавший алгоритм с потенциальным дефектом;
• владелец системы, осуществлявший ее неадекватное обучение или эксплуатацию;
• и даже производитель аппаратного обеспечения.
Отдельный комплекс рисков связан с обработкой персональных данных с помощью ИИ. Современные ИИ-алгоритмы требуют огромных массивов разнородной информации для своего обучения и функционирования, что вступает в прямое противоречие с принципами, заложенными в Федеральном законе «О персональных данных», — законности, целевой ограниченности и прозрачности. Это создает угрозы утечек и несанкционированного использования сведений. Стандартное согласие на обработку персональных данных часто оказывается недостаточным, так как не покрывает всех сценариев их вторичного использования и выявления алгоритмом скрытых паттернов для новых, не заявленных изначально целей.
В условиях этой неопределенности бизнесу необходимо самостоятельно выстраивать внутренние политики, пытаясь совместить требования Роскомнадзора с технологической реальностью, зачастую выходя за рамки традиционных трактовок закона.
Как итог, видя огромные законодательные пробелы в части регулирования отношений с ИИ — бизнесу важно учитывать данные тенденции и осторожно подходить к внедрению инновационных решений. Также важно продумать внутренние регламенты для сотрудников, внедрить соответствующие формулировки в договоры с подрядчиками (в части ответственности и авторских прав).
Так как использование ИИ связано и с риском утечки конфиденциальной информации — компании должны проводить оценку возможных угроз и формировать стратегию внедрения ИИ. Только так можно извлечь максимум выгоды из инноваций, не создавая угроз для своей репутации, финансовой стабильности и прав потребителей.
С уважением, автор журнала, Мария Стрельчик – основатель Teiwaz Legal, юрист, налоговый консультант.
Больше полезного материала от Марии:
ТГ «Внутрянка Teiwaz Legal»: https://t.me/urist_business/?erid=2Vtzquj1TvH
ВК: https://vk.com/teiwaz_legal
Реклама. ИП Стрельчик М.А. ИНН 450163236365. Erid:2Vtzquj1TvH