Найти тему
Сенатор Артем Шейкин

На пути к цифровому кодексу РФ: искусственный интеллект требует особого внимания

Искусственный интеллект (ИИ) является одной из самых быстроразвивающихся областей науки и техники. Он находит применение в различных сферах человеческой деятельности, от медицины и образования до производства и транспорта. Однако стремительное развитие ИИ также вызывает ряд вопросов и проблем, которые требуют законодательного регулирования.

Стоит понимать, что развитие ИИ дает нам как новые возможности, так и угрозы безопасности наших граждан. Мошенники все чаще используют нейросети в своих схемах.

Валентина Матвиенко, председатель Совета Федерации, на пленарном заседании уделила особое внимание этому вопросу и сделала акцент на необходимости разработки и принятия законов, регулирующих использование искусственного интеллекта.

В рамках работы Комитета Совета Федерации по конституционному законодательству и государственному строительству намерен активно заниматься этим вопросом. Наша цель — гарантировать безопасность и защитить права граждан в эпоху развития новых технологий.

Категории риска для технологий на основе искусственного интеллекта
В первую очередь, чтобы минимизировать риски и обеспечить безопасность использования ИИ, необходимо разработать систему классификации технологий по степени риска.

Система классификации должна включать три основные категории:
Высокая. Технологии, которые имеют высокий уровень риска, требуют запрета использования, поскольку могут привести к непоправимым для общества и экономики последствиям.
Средняя. Технологии, которые имеют высокий уровень риска, требуют особого внимания и контроля со стороны государства и общества. К ним относятся технологии, которые могут привести к экономическим потерям, нарушению конфиденциальности данных или другим серьёзным последствиям.
Низкая. Технологии с низким уровнем риска могут использоваться без особых ограничений.


Маркировка контента, созданного с использованием нейросетей: защита от дипфейков и сохранение уникальности искусства
Следующим шагом должна стать маркировка контента, созданного с использованием нейросетей.

Искусственный интеллект уже способен генерировать тексты, изображения, видео и аудиозаписи, что открывает новые возможности для творчества, но также создает угрозу злоупотребления. Мошенники все чаще используют дипфейки для распространения дезинформации и вымогания денежных средств.

Представители искусства также выражают обеспокоенность по поводу дипфейков. Председатель Союза кинематографистов Н. С. Михалков считает, что дипфейки представляют «страшную опасность», и отмечает, что использование этой технологии может привести к «непредвиденным последствиям», таким как потеря уникальности и ценности работы артистов.

Для обеспечения прозрачности и доверия в цифровом пространстве необходимо разработать систему, которая будет анализировать контент и определять, создан ли он человеком или сгенерирован нейросетью. Это позволит оперативно удалять нежелательный контент и привлекать к ответственности нарушителей.

Ответственность за системы искусственного интеллекта: кто и за что отвечает?

Ответственность за системы ИИ должна возлагаться на поставщика. Поставщик — это физическое или юридическое лицо, которое размещает систему на рынке или вводит ее в эксплуатацию. Независимо от того, кто спроектировал или разработал систему, именно поставщик должен гарантировать её соответствие всем необходимым стандартам и требованиям безопасности.

Разработчики и развертыватели также должны рассматриваться как поставщики систем ИИ и, следовательно, брать на себя все соответствующие обязательства.

Важно отметить, что ответственность за системы ИИ должна быть четко определена и закреплена законодательно. Это позволит создать эффективную систему контроля и надзора за разработкой, внедрением и эксплуатацией систем.

Лицензирование искусственного интеллекта: необходимость и перспективы


Одним из способов обеспечения безопасности и этичности использования ИИ является его лицензирование. Лицензирование ИИ предполагает выдачу разрешений на разработку, тестирование и использование систем искусственного интеллекта. Лицензии могут выдаваться государственным органом или специализированной организацией.

В дальнейшем необходимо ограничивать работу с продвинутыми инструментами искусственного интеллекта без лицензии.

Платить авторам контента при обучении искусственного интеллекта
Все чаще возникает вопрос о защите авторских прав на контент, который используется для обучения нейросетей. В связи с этим предлагается ввести систему оплаты авторам контента, которая позволит компенсировать их труд и стимулировать создание качественного материала.

Для реализации этой системы необходимо предпринять следующие шаги:

Запрет на генерацию нелегального контента. Разработчикам следует запретить использовать контент, защищенный авторскими правами, без согласия правообладателя. Это поможет предотвратить нарушение прав авторов и обеспечит легальность материалов, используемых для обучения ИИ.
Обязать разработчиков сообщать о материалах, используемых для обучения. Разработчики должны будут предоставлять информацию о контенте, который они используют для обучения своих систем. Это позволит правообладателям отслеживать использование их материалов и получать компенсацию за их использование.
Правообладатели смогут подавать иски. Если правообладатель обнаружит, что разработчик незаконно использовал его контент для обучения ИИ, он сможет подать иск.
Штрафы за нарушение правил. За нарушение правил использования контента для обучения ИИ следует предусмотреть штрафы. Это станет дополнительным стимулом для разработчиков соблюдать законодательство и уважать авторские права.


Технологии искусственного интеллекта средней категории риска необходимо приравнять к объектам критической информационной инфраструктуры


Кибербезопасность играет решающую роль в обеспечении устойчивости систем ИИ от преступных действий третьих лиц, использующих уязвимости системы.

Чтобы предотвратить возможные негативные последствия, необходимо принять меры по регулированию и контролю за этими технологиями. Одним из возможных решений является приравнивание технологий ИИ средней категории риска к объектам критической информационной инфраструктуры (КИИ).

Критическая информационная инфраструктура — это совокупность объектов, которые обеспечивают функционирование ключевых сфер жизнедеятельности государства и общества. К ним относятся, например, системы управления энергетикой, транспортом, связью и другими важными отраслями.

Приравнивание технологий ИИ средней категории риска к объектам КИИ позволит установить более строгие требования к их разработке, тестированию и эксплуатации.

Создание нормативной «песочницы»
Внедрение новых технологий и продуктов сопряжено с определенными рисками и трудностями, связанными с необходимостью соблюдения законодательства и нормативных требований.

Для того чтобы ускорить разработку и внедрение новых продуктов и услуг в сферах применения цифровых инноваций, необходимо создать правовые условия, которые позволят инвесторам и разработчикам экспериментировать с новыми технологиями без риска нарушить закон. Одним из инструментов, который может помочь в решении этой задачи, является регулятивная песочница (РП).

Регулятивная песочница — это специальная правовая модель, в рамках которой инвесторы и разработчики могут внедрять новые технологии, не рискуя нарушить закон. Песочница позволяет проводить эксперименты с новыми продуктами и услугами в условиях, максимально приближенных к реальным, но при этом защищенных от возможных негативных последствий.

Для успешной работы регулятивной песочницы необходимо обеспечить участие в ней представителей бизнеса, профильных организаций и технических специалистов. Это позволит учесть интересы всех сторон и обеспечить эффективное внедрение инноваций.

В эпоху стремительного развития цифровых технологий становится очевидным, что существующее законодательство нуждается в адаптации. Создание цифрового кодекса — это сложный и долгий процесс, требующий тщательной проработки и согласования.

Уже сейчас необходимо вносить изменения в существующие законы, чтобы обеспечить соответствие законодательства современным технологическим реалиям и защитить права и свободы граждан в цифровом пространстве.