Найти в Дзене
ЗАКС.Ру

Депутаты и участники рынка разработали законопроект о регулировании ИИ

Профильная группа подготовила законопроект, регулирующий работу искусственного интеллекта, сообщила 11 апреля РБК со ссылкой на источники, знакомые с инициативой. Он подразумевает запрет систем ИИ с "неприемлемым уровнем риска", введение ответственности для разработчиков, чьи системы ИИ причинили вред человеку, а также маркировку нейросетевого контента. Как сообщает РБК, в работе профильной группы принимали участие депутаты, юристы и представители участников рынка ИИ. Обсуждение инициативы проходило в Госдуме, в "Деловой России" и на отраслевых дискуссионных площадках. По информации издания, по итогу был подготовлен законопроект "О регулировании систем искусственного интеллекта (ИИ) в России", это подтвердили источники РБК. Инициатива предлагает ввести в российское законодательство понятия искусственного интеллекта, технологий ИИ, систем ИИ, а также их разработчиков, операторов и пользователей. В нем также прописаны меры регулирования его деятельности. Одна из них включает введение "яв

Профильная группа подготовила законопроект, регулирующий работу искусственного интеллекта, сообщила 11 апреля РБК со ссылкой на источники, знакомые с инициативой. Он подразумевает запрет систем ИИ с "неприемлемым уровнем риска", введение ответственности для разработчиков, чьи системы ИИ причинили вред человеку, а также маркировку нейросетевого контента.

Как сообщает РБК, в работе профильной группы принимали участие депутаты, юристы и представители участников рынка ИИ. Обсуждение инициативы проходило в Госдуме, в "Деловой России" и на отраслевых дискуссионных площадках. По информации издания, по итогу был подготовлен законопроект "О регулировании систем искусственного интеллекта (ИИ) в России", это подтвердили источники РБК.

Инициатива предлагает ввести в российское законодательство понятия искусственного интеллекта, технологий ИИ, систем ИИ, а также их разработчиков, операторов и пользователей. В нем также прописаны меры регулирования его деятельности. Одна из них включает введение "явной, недвусмысленной и легко идентифицируемой" маркировки систем ИИ. Ее будет обязан обеспечивать оператор системы до каждого случая взаимодействия с пользователем. Отмечается, что на системы, используемые в закрытых и внутренних технологических процессах, это требование не распространяется.

Также в документе прописана классификация систем по уровню потенциального риска. Их выделяют всего 4: неприемлемый, высокий, ограниченный и минимальный. Системы с неприемлемым уровнем риска предлагается полностью запретить для разработки и эксплуатации. Как указано в тексте законопроекта, "неприемлемым" будет считаться уровень риска, создающий угрозу для человека, общества и государства, а также нарушающий основные права и свободы человека и гражданина. Системы с высоким уровнем риска, то есть применяющиеся в здравоохранении, транспорте, финансах, правоохранительной деятельности и других связанных со здоровьем и правами россиян сферах, должны будут в обязательном порядке получить госрегистрацию и сертификацию. Для систем с ограниченным уровнем риска будет предусмотрена добровольная сертификация.

Помимо этого, авторы инициативы предлагают ввести ответственность для лиц, участвующих в разработке и эксплуатации систем ИИ, если те причинили вред жизни, здоровью и имуществу граждан. Также для операторов систем с высоким уровнем могут ввести обязательное страхование ответственности. В документе отмечается, что к ответственности будут привлекать лиц в зависимости от того, на какой стадии произошло нарушение. То есть разработчик не понесет ответственность, если сможет доказать, что с его стороны были приняты все необходимые меры, а вред возник из-за пренебрежения правил эксплуатации системы, и наоборот.

Наконец, вводятся критерии определения авторского права в сфере искусственного интеллекта. Если будет доказано, что человек внес существенный вклад в создание материала, то есть принимал творческие решения, определял параметры создания результата, дорабатывал полученный результат, то исключительное право на результат отойдет ему. В ином случае оно перейдет к оператору системы ИИ и будет действительно в течение 50 лет.

Отметим, что в правительстве РБК ответили, что к ним подобный законопроект на рассмотрение не поступал. При этом зампред комитета по информационной политике, член рабочей группы по ИИ в Госдуме Андрей Свинцов подтвердил, что в палате парламента была создана рабочая группа по разработке законодательства в сфере ИИ. Однако он заявил, что никакие законопроекты пока "всерьез не рассматриваются". По словам Свинцова, скоро появятся инициативы, регулирующие отдельные вопросы этой сферы или вводящие пилотные режимы, но единый проект, который бы регулировать всю сферу деятельности ИИ, в этом году не предвидится. Наиболее вероятной инициативой для внесения в Госдуму, на его взгляд, является маркировка нейросетевого контента.

Напомним, что сам же Свинцов в середине марта призывал к подготовке проектов, регулирующих маркировку контента, созданного ИИ. При этом его коллега Антон Горелкин сообщал о разработке такой инициативы еще в июне 2023 года. Также в начале апреля этого года предложение маркировать нейросетевой контент главе Минцифры России Максуту Шадаеву направил лидер фракции "Единая Россия" в Заксобрании Петербурга Павел Крупник.