Найти в Дзене

ИИ под присмотром, но не под замком: контуры будущего закона

Российские власти готовят рамочный закон об искусственном интеллекте, делая ставку на «мягкое» регулирование и минимальное вмешательство в развитие самой технологии. Жесткие требования предполагается ввести лишь в критических и чувствительных сферах, чтобы снизить риски для государства и граждан, не подрывая конкурентоспособность отрасли. При таком подходе правительство рассчитывает сохранить темпы развития ИИ и позиции страны в глобальной технологической гонке. Российские власти делают выбор в пользу максимально щадящей модели регулирования искусственного интеллекта. Речь идет не о контроле над самой технологией как таковой, а о правилах обращения с продуктами и сервисами, которые создаются с ее применением. Логика такого подхода ранее уже подробно обсуждалась на встречах вице-премьера Дмитрия Григоренко с представителями отрасли и профильных ведомств в конце прошлого года. Тогда ключевым аргументом стала уязвимость российского рынка ИИ, который оценивается всего примерно в 2% от миро

Российские власти готовят рамочный закон об искусственном интеллекте, делая ставку на «мягкое» регулирование и минимальное вмешательство в развитие самой технологии. Жесткие требования предполагается ввести лишь в критических и чувствительных сферах, чтобы снизить риски для государства и граждан, не подрывая конкурентоспособность отрасли. При таком подходе правительство рассчитывает сохранить темпы развития ИИ и позиции страны в глобальной технологической гонке.

Российские власти делают выбор в пользу максимально щадящей модели регулирования искусственного интеллекта. Речь идет не о контроле над самой технологией как таковой, а о правилах обращения с продуктами и сервисами, которые создаются с ее применением.

Логика такого подхода ранее уже подробно обсуждалась на встречах вице-премьера Дмитрия Григоренко с представителями отрасли и профильных ведомств в конце прошлого года. Тогда ключевым аргументом стала уязвимость российского рынка ИИ, который оценивается всего примерно в 2% от мирового. В правительстве опасаются, что избыточное и преждевременное вмешательство государства может затормозить развитие отрасли и лишить страну конкурентных преимуществ. Пока именно отсутствие жестких ограничений позволило России создать две сравнительно автономные большие языковые модели — разработки «Сбера» и «Яндекса». При этом вторая из них обучалась в том числе на открытых зарубежных данных, а у большинства государств мира собственных сопоставимых моделей до сих пор нет. Примечательно, что около года назад вице-премьер публично обещал бизнесу, что регулирование ИИ в стране не будет вводиться как минимум в течение двух лет. С учетом сроков обсуждения законопроекта в Госдуме и последующей подготовки подзаконных актов этот прогноз, по всей видимости, будет реализован на практике.

ИИ между приватностью и рынком: какие изменения в законах предлагает крупный бизнес

На данный момент Россия остается одной из самых либеральных юрисдикций с точки зрения разработки и применения ИИ. В США уже действуют обязательные требования к безопасности и качеству ИИ-решений. В Великобритании, Китае и странах Евросоюза созданы национальные реестры ИИ-систем. При этом в КНР и ЕС, где регулирование считается наиболее жестким, дополнительно закреплены требования к размещению ЦОДов и юридическому статусу операторов моделей внутри страны, а в Европе — еще и обязательства по обучению ИИ на национальных наборах данных. Такая жесткость, как отмечают участники рынка, уже приводит к оттоку специалистов и компаний в более мягкие с точки зрения регулирования юрисдикции.

Поэтому разрабатываемый в России закон об искусственном интеллекте предполагается рамочным. Его основная задача — зафиксировать единый понятийный аппарат для всего рынка и устранить разночтения, в том числе между различными ведомственными подходами, не вводя при этом прямых ограничений для технологического развития компаний.

При этом более строгие нормы все же планируется применять в тех областях, где ошибки или злоупотребления ИИ могут нести прямые риски для граждан или государства. К таким сферам относятся медицина, объекты КИИ, оборона, государственная и нацбезопасность, а также использование ИИ в системе госуправления.

Для правительства принципиально важно закрепить, что решения органов публичной власти в любом случае принимаются людьми и ответственность за них несут конкретные должностные лица. Для реализации дифференцированного подхода в так называемых критических отраслях предлагается ввести критерии «российского происхождения» технологии. В частности, оператор ИИ-модели должен быть зарегистрирован в России и располагать ЦОДами на территории страны, чтобы данные не передавались за рубеж. Сама модель должна быть оформлена как российский программный продукт, включена в соответствующий реестр, обучаться на национальных датасетах и проходить процедуры проверки качества и безопасности.

Для замыкания системы контроля в правительстве обсуждают создание реестра российского и доверенного ИИ с обязательной сертификацией таких решений для государственных информационных систем и объектов КИИ.

Менее жесткие, но все же ощутимые ограничения могут коснуться «чувствительных» сфер — здравоохранения, образования, безопасности и биометрии, где использование иностранных ИИ-моделей предлагается ограничить.

Для остального рынка законопроект должен установить четкое разграничение ролей всех участников отрасли — разработчиков, операторов, пользователей и других субъектов, а также определить их зоны ответственности и обязанности. В частности, на разработчиков планируется возложить обязанность обеспечивать безопасное применение технологий, предотвращать возможный вред, снижать риски предвзятости алгоритмов, получать согласие пользователей на обработку данных с применением ИИ и учитывать право человека отказаться от такой обработки.

Отдельный блок ответственности будет адресован пользователям ИИ-контента. Использование искусственного интеллекта предлагается закрепить в качестве отягчающего обстоятельства при совершении преступлений и административных правонарушений, в том числе при вмешательстве в выборные процессы, умышленных манипуляциях, подрыве доверия к государственным институтам, получении информации ограниченного доступа и распространении заведомо ложных сведений, включая дипфейки.

Обсуждаются и требования к операторам моделей информировать пользователей о том, что они взаимодействуют с ИИ, а также обязательства по маркировке ИИ-контента и созданию механизмов контроля.

Значительное внимание уделяется и вопросам интеллектуальной собственности. Законопроект затронет права разработчиков и владельцев данных на ИИ-продукты, включая закрепление принадлежности исключительных прав пользователям на произведения, созданные с применением ИИ при наличии творческого вклада человека. Также обсуждаются вопросы правовой охраны уникальных запросов к моделям и возможное упрощение доступа ИИ к данным, защищенным авторским правом, в целях обучения.

В «Альянсе в сфере ИИ» отмечают, что законопроект находится на стадии разработки.

Подробнее на it-world.ru