С приходом искусственного интеллекта (ИИ) в нашу жизнь ее качество стремительно меняется. Он влияет на развитие технологий в различных сферах экономики, нашу культуру, образование, существенное воздействие оказывает на рынок труда. Если сейчас применение ИС все же ограничено, то в недалеком будущем его использование в нашей повседневной жизни будет восприниматься как нечто обыденное, банальное. Однако следует учесть, что задействование возможностей ИИ обществом требует подготовки, чтобы избежать рисков, обеспечить безопасность как для физических лиц, так и общества в целом.
Для этого в первую очередь необходимо понимать и учитывать весь потенциал ИИ и последствия его внедрения.
Так, например, создание с помощью ИИ дипфэйков (англ. «deep learning - глубокое обучение» и «fake — подделка») фото, картин, видео, имитирующих реально существующих людей или наш окружающий мир, в настоящее время порождает и множество проблем. Следует отметить, что они возникают не только у лиц, создающих или использующих дипфэйки, но если рассматривать вред, наносимый ими с социальной точки зрения, то можно говорить о формировании у населения искаженного мировосприятия и появления возможности манипулировать общественным мнением.
Дипфейки широко используются в киноиндустрии. С их помощью можно изменять внешний облик актеров или наоборот придать дублерам сходство с актерами, закончить съемку фильма с изображением внезапно покинувшего съемку фильма по какой-либо причине актера. С одной стороны, это позволяет безболезненно решить возникшую проблему, а с другой стороны использование таких изображений практически полностью снимает зависимость кинобизнеса от участия в нем актеров, что может привести к безработице в этой сфере и ущемлении их законных прав.
Одну из самых больших угроз для граждан представляют собой голосовые дипфэйки, потому что ни в одной стране мира на голос человека не распространяется право собственности, если только имя человека не зарегистрировано в качестве коммерческого бренда.
На практике мы часто встречаемся с подобными нарушениями. Например, в концертных залах, на телевидении мы смотрим шоу с юмористическими дипфейками с использованием голосов известных политиков и знаменитостей. Или в повседневной жизни мы сталкиваемся со случаями, когда мошенники связываются с людьми, имитируя голоса их близких с целью вымогательства денег.
В России использование чужой речи для создания «похожего» голоса законодательством не запрещено. То есть, имитация голоса не является нарушением и, скорее всего, зависит от содержания информации, которая может попасть под уголовную ответственность.
Создание и использование дипфейков может касаться интересов всех, кто стремится защитить свой образ и обеспечить защиту принадлежащих ему прав на результаты интеллектуальной деятельности и конфиденциальной информации.
В Российском законодательстве указано (ст. 1228 ГК РФ), что автором объекта интеллектуальной деятельности признается тот, кто его создал (например, физическое или юридическое лицо), а правообладателем может быть тот, кто обладает исключительным правом на этот объект. Так, согласно п. 1 ст. 1229 ГК РФ использование результата интеллектуальной деятельности без согласия правообладателя, является незаконным и влечет установленную ответственность.
Следует отметить, что в России существует право на собственное изображение. Согласно п. 1 ст. 152.1 ГК РФ обнародование и дальнейшее использование изображения гражданина, в том числе его фотографии, видеозаписи или произведения изобразительного искусства, в которых он изображен, допускаются только с его согласия, а после его смерти с согласия его родственников. Согласно п. 3 п. ст. 152.1 ГК РФ «каждый человек вправе формировать свою внешность по собственному усмотрению, сохранять и изменять ее, фиксировать в определенный момент времени путем фотографирования, видеосъемки и т.п. Индивидуальный облик (образ) идентифицирует гражданина в обществе, поэтому изображение является частью сведений о личности человека и может, Кроме того, составлять его личную тайну». А потому, в случае нарушения указанной статьи гражданин или его родственники вправе требовать удаления изображения и запрещать его дальнейшее распространение.
Также нарушения, возникшие в связи с созданием и распространением дипфейков, могут затронуть личные нематериальные блага лица, среди которых, согласно п. 1 ст. 150 ГК РФ, - достоинство личности, честь и доброе имя, деловая репутация, неприкосновенность частной жизни и др. В случае причинения морального вреда статьей 151 ГК РФ предусмотрена выплата денежной компенсации. Однако следует отметить, что в современных условиях эти механизмы недостаточно эффективны и ограничены.
Например, если изображенное лицо не является правообладателем созданного образа или не имеет доказательств о принадлежности ему прав на него, то его приобретатель вправе использовать оригинал произведения по своему усмотрению без согласия автора или иного правообладателя и без выплаты ему вознаграждения (п. 2 ст. 1291 ГК РФ). То есть, механизмы гражданского права существуют и могут применяться в делах о дипфейках, однако они предоставляют ограниченную защиту пострадавшим от них, а поэтому в последнее время все чаще обращаются к механизмам уголовного права в отношении создателей и распространителей дипфэйков.
Известен факт создания и использования дипфэйка в 2019 г., когда на выборах британский политик Борис Джонсон предложил избирателям поддержать своего соперника в борьбе за пост премьер-министра страны – Джереми Корбина, который, в свою очередь, предложил аудитории поддержать Джонсона. Оба видео не отличить от настоящих. Однако в реальности это фейки, созданные организацией Future Advocacy для демонстрации влияния новых технологий на демократические процессы (https://translated.turbopages.org/proxy_u/en-ru.ru.f6e497c6-65ddb67b-37cad74f-74722d776562/https/www.dailymail.co.uk/sciencetech/article-7677023/Deepfake-video-Boris-Johnson-endorsing-Jeremy-Corbyn-Prime-Minister-released-thinktank.html).
В качестве примера также можно привести случай, когда в 2020 года один из телевизионных каналов Республики Корея заменил телеведущую Ким Чжу Ха на ее цифрового двойника и при этом подмены никто не заметил.
Отсюда встает вопрос о разрешении проблем, связанных с конкуренцией между реально существующими и/или умершими работниками киноиндустрии, ТВ и их цифровыми двойниками при создании и использовании дипфэйков. То есть, применение дипфэйков, в частности, в сфере культуры и искусства может привести к не востребованности этих специалистов и их безработице, а в области политики оказать влияние на политический курс, воздействуя на общественное мнение.
Законодательство по урегулированию создания и использования дипфэйков, которые признаны опасными в отношении физических и юридических лиц, а также политических деятелей, пока еще не разработано. В настоящее время в большей степени попытки контролировать и регулировать применение дипфэйков предпринимаются со стороны социальных сетей. Например, американские (Twitter и Facebook) и китайские (TikTok) социальные сети пытаются идти путем их запретов или удаления.
Например, в Китае запрещено использование любой информации, искажающей правду, что может ввести потребителей в заблуждение и тем самым нанести им вред, а с 1 января 2020 года действует закон об уголовной ответственности в отношении производителей дипфэйков и он-лайн площадок, где могут быть опубликованы немаркированные дипфейки.
Twitter ввел правила по дипфейкам и манипулированию СМИ, которые в основном предусматривают маркировку твитов и предупреждение пользователей об измененных новостях, а не их удаление. Твиты, содержащие фальсифицированные или недостоверные материалы, будут удаляться только в том случае, если они могут причинить вред.
Facebook в начале 2020 года анонсировал политику удаления дипфейков, если они вводят потребителя в заблуждение, заставляя думать, что субъект видео сказал слова, которых он на самом деле не говорил, а также если контент является продуктом искусственного интеллекта, который заменяет исходный (https://trends.rbc.ru/trends/industry/5fc688fe9a79473e6ff9b82a).
Хотелось бы отметить, что создатель дипфейка не всегда имеет целью обмануть зрителей, но, тем не менее, он вводит их в заблуждение, поскольку, например, редактируя фотографию, он меняет впечатление о снимаемом объекте. Чтобы не вводить потребителей в заблуждение в Израиле в 2012 году был принят Закон о фотошопе, согласно которому в рекламе требуется указывать, что изображения были подвергнуты компьютерной обработке. Во Франции с 2017 года требуется проставлять метку "ретушь фотографий" на фотографиях, которые были подвергнуты цифровым изменениям, а в 2021 году в Норвегии был введен запрет на использование фотографий с любым видом цифровой обработки без раскрытия правок.
Применение технологий дипфэйков касается и темы защиты интересов общества, в частности защиты интересов потребителей - предотвращение введения их в заблуждение, обеспечение адекватного восприятия содержания рекламируемого контента, пресечение распространения фальшивых новостей и предупреждение создания и распространения в обществе ложных образов.
Потребитель имеет право получать достоверную информацию о товаре или услугах, позволяющую сделать ему правильный и осознанный выбор согласно Закону РФ "О защите прав потребителей". А сведения, созданные с помощью технологий дипфэйков и используемые в рекламе, не должны вводить потребителя в заблуждение, несмотря на их убедительность, поскольку они направлены на манипуляцию поведением потребителей.
Несмотря на то, что дипфейки расширяют возможности обмана, все же они являются всего лишь инструментом для достижения цели, а значит обязанности и ответственность за них должна лежат на физических и юридических лицах, которыми был послан запрос на их создание. В этом случае пользователь, если посчитает, что его права нарушены, может обратиться с претензиями к разработчикам дипфэйка и через суд отстаивать свои права.
В заключение хотелось бы отметить, что хотя существующие механизмы по урегулированию конфликтов в сфере создания и распространения дипфэйков в законодательствах многих стран неэффективны, все же в настоящее время отмечается тенденция к установлению общих правил при публикации контента с цифровой обработкой.
Так, отношение к технологии дипфэйков отражено в Национальной стратегии развития ИИ на период до 2030 года (Указ Президента РФ от 10 октября 2019 г. № 490 "О развитии искусственного интеллекта в Российской Федерации”), где указано:
- о необходимости защиты прав и свобод человека, обеспечения защиты гарантированных российским и международным законодательством прав и свобод человека, недопустимость использования ИИ в целях умышленного причинения вреда гражданам и юридическим лицам;
- о предупреждении и минимизации рисков возникновения негативных последствий при использовании технологий ИИ;
- на свободный доступ потребителей к продукции, созданной с помощью ИИ, открытости и легкой доступности для понимания всей необходимой информации по работе ИИ и процесса достижения им результатов.
Необходимо отметить определяющую роль государства в регулировании участия ИИ при создании дипфэйков, выработке четких этических норм, определения возможных рамок их применения в разных сферах экономики с учетом интересов общества и обеспечения безопасности населения. Поскольку технологии создания дипфэйков развиваются значительно быстрее, чем законы в этой области, то действующее законодательство об урегулировании проблем также требует своего развития и дальнейшего совершенствования.
Автор: Ишинова В.А.