Найти в Дзене
Краснодарские Известия

Не верь глазам: как дипфейки меняют восприятие реальности

Видеоролики с известными личностями — от популярных блогеров до легендарных исторических фигур — заполонили соцсети. С помощью нейросетей пользователи воссоздают речь и образ кумиров. При этом часто мы уже не можем отличить правду от сгенерированного видеоролика. «Краснодарские известия» разбираются, как такие нейро-видео влияют на человека, а также какое наказание грозит пользователям за тренд. Сейчас практически невозможно прокрутить ленту социальных сетей, не наткнувшись на видео, где знакомые лица говорят необычные вещи. Блогеры выкладывают ролики, в которых их кумиры – от поп-исполнителей до президентов – якобы призывают нас к чему-то новому, хотя они никогда этого не говорили. Даже исторические персонажи «оживают»: с помощью нейросетей старые фотоснимки превращаются в короткую анимацию или видео, где, к примеру, Ленин будто бы читает лекцию, а Сталин обращается к молодежи. В 2018 году в сети появилось видео, где Дональд Трамп призывает бельгийцев выйти из Парижского климатическог
Оглавление

Видеоролики с известными личностями — от популярных блогеров до легендарных исторических фигур — заполонили соцсети. С помощью нейросетей пользователи воссоздают речь и образ кумиров. При этом часто мы уже не можем отличить правду от сгенерированного видеоролика. «Краснодарские известия» разбираются, как такие нейро-видео влияют на человека, а также какое наказание грозит пользователям за тренд.

Что такое нейро-видео и как его используют в соцсетях

Сейчас практически невозможно прокрутить ленту социальных сетей, не наткнувшись на видео, где знакомые лица говорят необычные вещи. Блогеры выкладывают ролики, в которых их кумиры – от поп-исполнителей до президентов – якобы призывают нас к чему-то новому, хотя они никогда этого не говорили.

Даже исторические персонажи «оживают»: с помощью нейросетей старые фотоснимки превращаются в короткую анимацию или видео, где, к примеру, Ленин будто бы читает лекцию, а Сталин обращается к молодежи.

В 2018 году в сети появилось видео, где Дональд Трамп призывает бельгийцев выйти из Парижского климатического соглашения – но вскоре выяснилось, что ролик фальшивый и запущен бельгийскими социалистами, чтобы привлечь внимание к проблеме климата. Об этом писало издание РБК Тренды.

Некоторые подобные проекты преследуют благие цели. К примеру, сервис MyHeritage «вернул к жизни» умерших предков: он оживляет исторические фотографии и даже добавляет голос, чтобы люди могли «услышать истории» своих родственников.

Генеалогия — это история и защита наших семейных историй. Мы продолжаем показывать миру, насколько интересной и увлекательной она может быть, — рассказал генеральный директор MyHeritage Гилад Джафет.

Психологи против нейро-видео

Постоянный контакт с такими подменами реальности не проходит бесследно. Исследования показывают, что фейковые видео размывают грань между правдой и вымыслом.

По словам психологов, дипфейки затрудняют доверие к визуальным материалам, увеличивая подозрительность и способствуют возникновению недоверия к окружающим, пишет Science.mail.

Проще говоря, чем больше мы видим поддельных видео, тем меньше мы начинаем верить своим глазам и собственному опыту. Это может вылиться в повышенную тревожность и даже паранойю.

Ученые даже отмечают, что искусственные видео способны вызывать у зрителей «ложные воспоминания» – например, человек уверен, что видел или слышал нечто, чего на самом деле никогда не было.

Возникновение такой недоверчивости – новая нагрузка на психику.

Когда человек сталкивается с манипуляцией, важно дать мозгу время включить рациональное мышление, – объясняет «Фонтанке» практический психолог Владлена Мазуркевич.

Она сравнивает нейросетевые ролики с психологическим выстрелом: сначала эмоциональная реакция, а потом нужно «включить разум».

Мазуркевич предлагает простой прием-тормоз: как только вы почувствовали замешательство, начните проговаривать таблицу умножения или считать в обратном порядке.

Несложные арифметические действия заставляют мозг сфокусироваться на задаче и выйти из состояния стресса, в котором им легче манипулировать, — добавила психолог.

Это на несколько секунд «возвращает» в реальность, например, проверить, точно ли это голос вашего ребенка или на видео точно настоящий человек.

Закон против дипфейков

Законодательство России уже имеет инструменты, чтобы бороться с несанкционированными нейро-роликами.

Как сообщил «Краснодарским известиям» специалист «Мой Юрист» Никита Строков, любое использование образа человека без его согласия – грубое нарушение его прав.

Публикация видео с реальным лицом без разрешения нарушает ст. 152.1 Гражданского кодекса (право на изображение). Автор или распространитель ролика может быть привлечен к ответу.

Использование реальных образов людей без их согласия запрещено, за исключением отдельных случаев, установленных законом, – напоминает Строков.

Даже если видео с человеком уже где-то публиковалось, его повторная обработка ИИ-технологиями может вызвать споры, особенно если ролик посчитали компрометирующим.

Нейросеть при создании видео выступает только инструментом – автором считается тот, кто внес творческий вклад. Юрист подчеркивает: по ст. 1259 ГК права на результат ИИ-помощи принадлежат человеку, если он действительно проявил творческое участие.

Например, простой генератор постов в соцсети сам по себе не создает авторского продукта, но человек, который тщательно подбирает промпт и редактирует результат, может считаться автором. Без такого участия «нейровидео» как самостоятельное произведение не защищается законом.

При этом ответственность за нарушение авторских прав и прав на изображение ложится не только на создателей контента, но и на площадки. Популярные видеохостинги и социальные сети обязаны следить за законностью материалов. Если после жалобы или уведомления администрация не удалит очевидно нелегальный «нейро-контент», она сама может быть привлечена к ответственности в соответствии со ст. 1253.1 ГК РФ.

Полина Максимова
Журналист