Дипфейки – это фальшивые видео, аудиозаписи и фотографии. Они не сняты с натуры, а синтезированы с помощью технологий искусственного интеллекта. Термин deep fake произошёл от двух понятий – deep learning(технология глубокого обучения нейросетей) и fake (подделка).
Если раньше компромат на оппонентов фабриковали в Фотошопе, что, в принципе, легко разоблачалось, то теперь способы обмана резко шагнули далеко вперёд.
Нейросети не топорно лепят лицо с одной картинки к телу на другой. Нет. Они с нуля создают вымышленные медиа, где человек выполняет то, что никогда не сделал бы в реальной жизни. Ну, или находится в окружении, в котором никогда не был. В результате получаются неотличимые от реальности картинки, видео и записи голоса.
Наиболее распространённое применение дипфейков – пока что развлечения. Это взлетающий тренд.
Однако уже сейчас создаётся масса фальшивых видео для манипуляций с общественным мнением. Например, дипфейки применяют для распространения липовых новостей или вбросов о конкурентах. Фиктивные записи со знаменитостями помогают навязывать определенные взгляды и доказывать ложные факты.
Другой пример дипфейков – поддельный контент 18+, где лица актёров заменяют на лица жертв этого жестокого подлога.
В общем, возможности технологии безграничны. Поэтому множество экспертов твёрдо считает, что дипфейки представляют серьезную угрозу для общества и ещё вчера нужно разработать способы борьбы как с распространителями, так и с самóй технологией.
Но у этой медали есть и светлая сторона.
Дипфейки можно использовать для генерации реалистичных образов людей в кино и на телевидении. Представьте, сколько удастся сэкономить времени и денег на создании костюмов и макияжа. К тому же именно дипфейки как нельзя лучше подходят для создания дополнительных сцен, которые трудно или невозможно снять в реальной жизни.
Так что другое множество экспертов так же твёрдо считает, что дипфейки – это логичное развитие технологий, а людям необходимо сосредоточиться лишь на разработке методов проверки подлинности видеозаписей и фотографий.
В целом же, дипфейки – очень молодая технология, которая может иметь как положительные, так и отрицательные последствия. При этом чёткого регулирования их публикации, само собой, не существует.
Поэтому, в принципе, публиковать дипфейки никто запретить пока не может. Законодательство за полётом технологий явно не успевает. Но!
Во-первых, контентные площадки сами начали задумываться об экологичности дипфейков.
Например, сегодня прошла информация, что ТикТок ужесточил правила публикации дипфейков. Если ранее запрещали только дипфейки, которые искажают «правдивость событий» или могут привести к «значительному ущербу», то теперь любой, даже самый безобидный, дипфейк должен быть недвусмысленно обозначен. В политических и рекламных роликах использование дипфейков полностью запретили.
Вероятнее всего, по пути ТикТока пойдут все контентные площадки. Поэтому использовать сгенерированные медиа сейчас лучше всего аккуратно. Не исключено, что в обозримом будущем все синтезированные дипфейки придётся удалить. Впрочем, нам в Дзене к сносу контента не привыкать :)
Но и это ещё не всё. В любой стране есть законы о защите частной жизни, о клевете и прочем. При желании их легко получится притянуть и к создателям дипфейков.
Поэтому будьте особо бдительны. Иногда шутка становится вовсе даже и не шуткой.