Когда искусственный интеллект уже не просто технология, а часть повседневной жизни, вопросы его регулирования превращаются в поле ожесточенных дискуссий. Как управлять прогрессом, не ставя под угрозу безопасность граждан? Именно эти вопросы обсуждались на панельной дискуссии «Законы машины: создание регуляторных ограничений для ИИ» на Петербургском международном экономическом форуме. Представители органов власти, эксперты из «Яндекса», Сбера, Т-Банка и Альфа-Банка поделились своими взглядами на будущее законодательства в сфере ИИ, осветив темы этики, международного сотрудничества и угроз для рынка труда. Свобода или контроль? Наряду с позитивными новостями о внедрении ИИ, появляются и сообщения о его негативных последствиях, что вызывает серьезные вопросы о необходимости и способах его регулирования. В частности, Россия пока предоставляет значительные свободы компаниям, занимающимся ИИ, в отличие от США и Китая, где регулирование более жесткое. Основной вопрос дискуссии был сформулирован так: какой путь должна выбрать Россия, чтобы не задушить технологии, но обеспечить безопасность?
Александр Крайнов, директор по развитию технологии искусственного интеллекта компании «Яндекс» начал с критики подхода, который ставит перед выбором между безопасностью людей и развитием технологий. Он выразил мнение, что счастье и безопасность людей должны быть на первом месте, и если развитие технологий угрожает этим ценностям, от технологий нужно отказаться. Однако, такой подход неправилен и нужно переформулировать вопрос.
«Мы должны выбирать между жизнью людей с технологиями и без технологий. Исторический опыт показывает, что мы развиваем и потребляем технологии на протяжении всей истории человечества. Каждый раз при появлении новой технологии возникает вопрос, нужна ли она нам и стоит ли ее регулировать или развивать. Со временем мы видим, что технологии оказывают положительное влияние на жизнь людей», — сказал Крайнов. Развитие технологий, по его словам, неизбежно приводит к их полезности в будущем. И продолжил свою мысль, затронув тему ошибок ИИ. «Если с использованием ИИ будет больше ошибок, чем без него, то, конечно, не стоит его внедрять. Но если ошибок будет меньше, то его внедрение оправдано. Важно всегда сравнивать ситуацию «с» и «без», а не оценивать ИИ в отдельности», — отметил эксперт, добавив, что смысл развития любой технологии заключается в повышении качества жизни людей. По его словам, соревнование и движение вперед — важные факторы для человека, поэтому оценивать успех надо не по уровню развития технологии или регуляторным мерам, а по качеству жизни.
А как быть с рисками искусственного интеллекта в таких чувствительных областях, как медицина и образование? Например, в прошлом году сервис от Google рекомендовал пользователю употреблять камни для получения питательных веществ, что могло иметь серьезные последствия. И как в России на текущий момент регулируется искусственный интеллект согласно нормам права, есть ли стандартизация в соответствии с международными нормами?
Денис Хабаров, руководитель практики компании «Меллинг, Войтишкин и Партнеры» начал с шутки, что юристы и регуляторы «всегда всё портят», но признал, что это важный аспект обсуждения. Он заметил, что в России есть некоторые нормы, регулирующие искусственный интеллект, но страна пока находится в начале пути. Существует несколько способов развития: жесткое регулирование, как в Европе, или более свободное, как в Индии. В России существуют институты ответственности, которые позволяют работать со случаями ущерба и спорных правоотношений, однако бизнесу нужна ясность. Спикер обратил внимание, что в российском законодательстве есть «серые зоны», где не ясно, кто несет ответственность за действия ИИ. Это реальная проблема для компаний, далеких от ИТ-сектора и использующих ИИ в своей деятельности.
«К нам приходит много клиентов, которые спрашивают, кто несет ответственность за действия ИИ, например, в создании маркетингового контента. Данная проблема не до конца решена, и нужно регулировать процесс фактически в ручном режиме, создавая договорные структуры для минимизации рисков клиента», — добавил Хабаров.
Эксперт уверен, что регулирование ИИ неизбежно будет развиваться и важно понять, в каком направлении это делать. Если Россия пойдет по пути жестких ограничений, как в Европе, это вряд ли станет способствовать развитию технологий.
Вместе и порознь Сегодня есть несколько направлений международного сотрудничества в области ИИ. Наиболее заметное сотрудничество происходит в рамках БРИКС, где активно обсуждаются стандарты с индийскими коллегами. По мнению Дениса Хабарова, очень важна стандартизация, поскольку без нее невозможно эффективно обмениваться данными и обеспечивать совместимость систем.
Однако несмотря на сотрудничество, страны осознают, что находятся в своеобразной гонке, которая определит лидеров в сфере ИИ. В стратегических программах практически каждого государства прописана цель стать лидером в этой области. «Сотрудничество и выработка текущих стандартов нацелены на замедление прогресса искусственного интеллекта для предотвращения потенциальных угроз. Последнее время все насторожились быстрым развитием больших языковых моделей, например, GPT, и в настоящее время страны стремятся оптимизировать этот процесс на различных уровнях", - отметил Хабаров.
Он заявил, что стандартизация и согласование будут продолжаться в различных блоках, таких как БРИКС, однако вне блоков данная проблема остается сложной из-за нынешней геополитической обстановки.
Согласно Лидии Михеевой, секретарю Общественной палаты РФ, меры предосторожности, касающиеся искусственного интеллекта, не должны быть включены в область публичного права. Она призвала законодателей не усиливать запреты, ограничения и санкции, чтобы не препятствовать прогрессу. "Уже сегодня в частном праве существует достаточно инструментов для защиты граждан, пострадавших от использования искусственного интеллекта, и имеются меры предотвращения. Наш путь заключается в развитии этих мер", - сообщила Михеева. Она также предложила развивать культуру соглашений пользователей, отметив ее значимость как для компаний, так и для пользователей. Ибо многие пользователи не помнят о договорных отношениях с разработчиками искусственного интеллекта и часто не читают пользовательские соглашения, что может привести к недопониманиям и рискам.
Также важно внедрить дисклеймеры, чтобы избежать недоразумений при использовании искусственного интеллекта. Секретарь Общественной палаты РФ предложила разработать меры по предотвращению выпуска сомнительных или негативных результатов, которые сами компании могли бы предотвратить. "Интересен опыт Японии, где практикуется мягкое право или саморегулирование. Компании могут заранее предпринять меры и только потом вывести продукт на рынок. Важно, чтобы такие меры не были чрезмерными", - добавила она. Поэтому осторожное продвижение в направлении основных мер предотвращения позволит России сохранить свободное пространство для развития технологий.
Как Индия и ОАЭ регулируют ИИ
Искусственный интеллект в Индии развивается очень активно, с ежегодными темпами роста около 25–35%. По оценкам, к 2027 году рынок ИИ в Индии достигнет $17 млрд.
Авик Саркар, член Совета по искусственному интеллекту в Министерстве электроники и информационных технологий Индии, считает важным найти баланс при регулировании искусственного интеллекта. «Мы должны обеспечить исключение вреда для населения. Это наша основная задача. В то же время мы должны развивать бизнес-экосистему в стране», — пояснил Саркар. Он указал, что в Европе регулирование часто касается «аутсайдеров», не учитываются потребности стартапов и малых компаний, которым необходима поддержка. «В Индии частно-государственное партнерство хорошо развито, и правительство играет важную роль в укреплении такого партнерства. Проблемы, с которыми мы сталкиваемся, отличаются от проблем других стран. Например, около 20% населения хорошо говорит по-английски, что важно учитывать», — добавил он.
Саркар отмечает, что индийские стартапы предлагают инновационные проекты не только для внутреннего рынка, но и для других стран, в том числе страна оптимистично смотрит на сотрудничество с Россией.
А как решают проблемы регуляторики в ОАЭ? Ведь за последние годы ОАЭ стали одной из ведущих стран в области технологий, включая создание должности министра по искусственному интеллекту в 2017 году и развитие стратегии по внедрению ИИ в экономику.
Халфан Белхул, генеральный директор Dubai Future Foundation, подчеркнул, что ОАЭ, будучи одной из самых молодых стран, только начинает осознавать полное влияние искусственного интеллекта на жизнь. Он рассказал о работе ОАЭ в области регулирования ИИ, в частности, о лаборатории регулирования, которая занимается инновациями и поддерживает диалог с госслужбами и министерствами. «Работа на министерском уровне, сотрудничество с госслужбами и министерствами — вот ключи к успеху. Все понимают, что использование ИИ связано с определенными рисками, но важно использовать его на благо человечества», — добавил Белхул. Он подчеркнул важность пользовательского опыта в определении баланса между благом для общества и потенциальными рисками.