Добавить в корзинуПозвонить
Найти в Дзене
myfin.by

Регулирование ИИ в Беларуси: чего ждать?

К ключевым обозначенным проблемам относят рост фейков и дезинформации, развитие дипфейков, избыточный сбор и незаконный оборот персональных данных.При этом ИИ помогает в работе – он ускоряет создание рекламных креативов, автоматизирует обработку документов, облегчает аналитические задачи, улучшает сервисы поддержки клиентов, помогает в обучении и как инструмент может быть полезен во многих других направлениях.На сегодняшний день в Беларуси нет полноценного регулирования технологии ИИ. Упоминание об ИИ мы можем найти в Декрете № 8 «О развитии цифровой экономики», который разрешает резидентам Парка высоких технологий заниматься разработкой и внедрением ИИ. Также Межпарламентской Ассамблеей СНГ был принят модельный закон «О технологиях искусственного интеллекта», направленный на формирование общей терминологии и единых принципов использования ИИ в странах Содружества.Полагаем, что этот модельный закон может стать основой для разработки национального регулирования технологии ИИ в странах-у

К ключевым обозначенным проблемам относят рост фейков и дезинформации, развитие дипфейков, избыточный сбор и незаконный оборот персональных данных.При этом ИИ помогает в работе – он ускоряет создание рекламных креативов, автоматизирует обработку документов, облегчает аналитические задачи, улучшает сервисы поддержки клиентов, помогает в обучении и как инструмент может быть полезен во многих других направлениях.На сегодняшний день в Беларуси нет полноценного регулирования технологии ИИ. Упоминание об ИИ мы можем найти в Декрете № 8 «О развитии цифровой экономики», который разрешает резидентам Парка высоких технологий заниматься разработкой и внедрением ИИ. Также Межпарламентской Ассамблеей СНГ был принят модельный закон «О технологиях искусственного интеллекта», направленный на формирование общей терминологии и единых принципов использования ИИ в странах Содружества.Полагаем, что этот модельный закон может стать основой для разработки национального регулирования технологии ИИ в странах-участницах СНГ.Рассмотрим основные возможные тенденции в регулировании ИИ в Беларуси.Маркировка контента, созданного ИИ Международная практика уже движется в сторону обязательной маркировки материалов, созданных с использованием искусственного интеллекта: в ряде стран внедряются машиночитаемые метаданные, специальные водяные знаки и человекочитаемые пометки о применении ИИ.Полагаем, что в будущем аналогичный подход может быть реализован и в Беларуси, где такие требования помогут повысить прозрачность цифрового контента и упростить его идентификацию.Разработчикам, создающим генеративные модели или использующим их в коммерческих сервисах, потребуется внедрение систем отслеживания и пометки контента. Это может создать дополнительные затраты и усложнить процессы, но одновременно укрепит доверие пользователей и повысит соответствие продуктов международным стандартам.Классификация систем ИИ по уровням риска Такой подход позволяет разделять системы на группы в зависимости от того, какой потенциальный вред они могут нанести.Согласно мировым стандартам, категория недопустимого риска может относиться к решениям, которые нарушают права граждан или угрожают безопасности, например системы массового распознавания лиц в общественных местах или алгоритмы, предназначенные для вредоносной киберактивности. Системы высокого риска будут относиться к тому, что используются в критически важных сферах (медицина, энергетика, транспорт и другое). А решения низкого риска (такие как бытовые чат-боты и голосовые ассистенты), вероятно, будут регулироваться минимально, чтобы не препятствовать развитию и внедрению технологии.Для компаний такая классификация будет означать необходимость заранее оценивать собственные решения и прогнозировать, какие требования к ним могут предъявляться. Разработчикам медицинских продуктов на основе ИИ, например, придется учитывать дополнительные проверки, требования к качеству данных и ответственность за ошибки.Обязательные оценки воздействияЕще одно вероятное направление регулирования – введение обязательной оценки воздействия ИИ до его запуска.Такой подход уже используется в ЕС и других странах, где важно учитывать, как алгоритмы влияют на людей, безопасность и общественные процессы.В рамках оценки будут проверяться возможная предвзятость моделей, риски конфиденциальности, уязвимости безопасности и другие потенциальные последствия для пользователей. После внедрения системы может понадобиться регулярный мониторинг и отчетность, чтобы вовремя выявлять проблемы и контролировать работу алгоритмов.Для IT-бизнеса это означает появление новых процедур комплаенса. Компании должны будут развивать компетенции в области аудита ИИ, документирования процессов разработки, оценки качества данных. Параллельно может сформироваться спрос на услуги внешнего аудита и консалтинга, что создаст новые ниши на рынке.Гарантии при автоматизированном принятии решений Будущее регулирование наверняка уделит особое внимание вопросам автоматизированного принятия решений. В банковском, страховом и e-commerce секторах такие решения уже играют значительную роль, и государство, скорее всего, потребует обеспечения прав граждан на информирование, объяснение и оспаривание результатов обработки.Пользователь должен будет знать, что решение принималось не человеком, а алгоритмом.При необходимости у пользователя должна быть возможность запросить разъяснение логики работы модели и добиться пересмотра результата с участием специалиста.Прозрачность и раскрытие данных обучения Во всем мире остается важным вопрос о том, на каких данных обучаются модели ИИ. Беларусь, скорее всего, также будет двигаться в сторону большей прозрачности в этой сфере.Разработчиков могут обязать указывать, какие типы данных они использовали, как эти данные собирались и какие меры принимались для исключения незаконного или защищенного контента.Такие требования помогут сделать работу разработчиков более понятной и снизить риск нарушений в том числе, связанных с авторскими правами.Бизнесу необходимо будет более тщательного вести внутреннюю документацию. Это предполагает также стремление к балансу между сохранением коммерческой тайны и выполнением требований регуляторов. Однако в долгосрочной перспективе повышение прозрачности может укрепить доверие к белорусским продуктам и упростить сотрудничество с зарубежными партнерами.Дополнительные меры регулирования Большой потенциал имеет просветительская деятельность: государство может стимулировать обучающие программы для граждан и компаний, чтобы повысить цифровую грамотность и обеспечить ответственное использование ИИ.Наконец, Беларусь, скорее всего, будет стремиться к сближению с международными стандартами. Стремление к гармонизации уже видно в участии страны в разработке модельного закона СНГ. В ближайшем будущем, скорее всего, мы будем наблюдать поступательное регулирование использования технологии ИИ, как это происходило, например, с технологией блокчейн, защитой персональных данных.Можно предположить, что новые правила будут сочетать защиту прав граждан, прозрачность работы технологий и ответственность разработчиков. Регулирование сферы применения технологии ИИ будет тесно связано с защитой персональных данных, авторским правом, с целью обеспечить этичное использование ИИ и повысить доверие к создаваемым с использованием этой технологии цифровым сервисам.Авторы: Людмила Епихова (юрист REVERA), Артем Хандрико (Ассоциированный партнер, исполнительный директор REVERA Belarus, руководитель практики IT | IP)