Найти тему
Московские Новости

Почему страны ЕС не могут договориться о правилах использования ИИ и как регулируют сферу в России

Оглавление

Евросоюз, вероятно, в этом году не сможет принять AI Act — закон, регулирующий использование искусственного интеллекта: у законодателей ЕС не получается согласовать детали документа.

Испания, которая председательствует в ЕС до декабря, настаивает на скорейшей ратификации Акта и предлагает компромиссы в попытке ускорить процесс: в частности, регулировать только те нейросети, у которых более 45 млн пользователей. Противники этой инициативы резонно отмечают, что платформы с меньшим числом пользователей «могут представлять не меньшую опасность».

Кроме того, Испания лоббирует еще один пункт: «регулярную проверку работы ChatGPT» для выявления потенциальных угроз и утечек информации. К слову, в апреле Испанское агентство по защите данных (AEPD) начало предварительное расследование в отношении американской OpenAI — компании-разработчика ChatGPT. А затем несколько крупных испанских компаний ввели запрет на использование чат-бота — из-за «угрозы утечек информации».

История вопроса

  • ЕС начал работу над законопроектом AI Act еще в 2021 году. В мае 2023-го Европейский парламент согласовал документ: его поддержали два профильных комитета — по гражданским свободам и внутреннему рынку.
  • Законодатели предлагают разделять все системы, основанные на ИИ, на четыре категории по уровню риска для здоровья, безопасности или прав людей: минимальный (или полное его отсутствие), ограниченный, высокий и неприемлемый.
  • ИИ-системы с минимальным риском (например, игры) будут работать без ограничений.
  • Если система получит статус «ограниченного» риска (в эту группу могут войти чат-бот ChatGPT и нейросеть Midjourney), то ее разработчики должны будут соблюдать требования прозрачности: пользователей должны информировать о том, что перед ними — продукт, сгенерированный ИИ. Кроме того, провайдеры должны будут документировать и публиковать информацию о соблюдении авторских прав при обучении языковой модели.
  • К высокорисковым системам (системы оценки работников при найме, беспилотные автомобили и др.) будут предъявлять целый ряд требований, регулирующих процессы сбора и анализа данных, на которых обучается ИИ, правила ведения технической документации и т.д. Подобные сервисы не попадут к конечному пользователю, пока не пройдут самую тщательную экспертную оценку на безопасность.
  • Системы, которые в ЕС сочтут «неприемлемыми», запретят из-за угроз безопасности. Так, в список запрещенных практик уже попал сбор нейросетями биометрических данных из социальных сетей или с камер видеонаблюдения для создания баз данных.
  • В законопроект еще могут внести поправки. На данный момент европейские законодатели провели три дискуссии (с участием Европейского парламента, Совета Европейского союза и Европейской комиссии) по AI Act. Четвертая состоится 24 октября. Однако на этой встрече стороны «вряд ли достигнут соглашения», а пятая дискуссия уже запланирована на начало декабря, отмечает The Verge.
  • В результате переговоры могут сдвинуться на начало 2024-го, а там дискуссии и вовсе приостановятся — из-за подготовки к выборам в Европейский парламент в июне, пишет Reuters.

Что говорят

  • Эксперты еще весной 2023-го предупреждали, что трехсторонние переговоры рискуют затянуться. Так, представитель Ассоциации европейских цифровых прав Сара Чандер предположила, что некоторые страны–члены ЕС выступят против запрета на биометрию, поскольку эта технология «необходима для борьбы с преступностью».
  • В то же время в Smart Engines считают, что любая пауза или задержка в одобрении законопроекта фатальна.
Владимир Арлазаровгенеральный директор Smart EnginesЗаниматься этим (регулированием использования ИИ. — Прим. ред.) надо было еще лет 10 назад. Хорошо, что вообще спохватились. Все, кому нужно, данные уже собрали. Регулирование необходимо, но эффект будет значительно слабее, чем это было бы 10 лет назад.
  • Ряд представителей индустрии считают, что правила использования ИИ должны включать не только вопросы информационной безопасности, но и доработку существующих нормативных актов в сфере социальной политики и трудовой занятости.
  • При этом в Институте искусственного интеллекта AIRI отмечают, что «чересчур жесткие ограничения для ИИ в одной части света могут вынудить разработчиков развивать эти технологии там, где ограничения минимальны».

Мировая практика

  • В конце апреля 2023-го стало известно о начале работы стран «Большой семерки» — США, Великобритании, Германии, Японии, Канады, Италии и Франции — над международными стандартами использования ИИ.
  • А в октябре премьер-министр Японии Фумио Кисида заявил, что лидеры G7 этой осенью проведут онлайн-встречу, чтобы обсудить основные принципы работы для разработчиков ИИ.
Фумио Кисидапремьер-министр ЯпонииМы решили к концу года сформулировать международные рекомендации, необходимые для работы с искусственным интеллектом.
  • При этом в Японии власти намерены принять проект бюджета, предусматривающий выделение средств на «ускорение развития ИИ и содействие внедрению таких технологий в малом и среднем бизнесе», а также в медицинской сфере.
  • В России еще в 2021 году подписали Кодекс этики ИИ, который носит рекомендательный характер. В документе прописаны основные принципы работы с нейросетями: человеко-ориентированный и гуманистический подход, непричинение вреда и др.
  • Кроме того, в нацпроект по экономике данных, который правительство планирует утвердить к июлю 2024-го, могут войти нормы о регулировании ИИ. В частности, законодатели предлагают определить, кто будет ответственен за ошибки, допущенные в результате применения ИИ, и создать «единый ИИ-регулятор». Полномочия этого ведомства пока не раскрываются.