Найти тему
Анна Глазго

Дипфейк на лидеров ЕР

Оглавление

Недавно вышел забавный ролик про лидеров ЕР, который напомнил мне про одну многообещающую, но опасную технологию.

Собственно сам ролик. Особенно хорошо получился Проценко, хотя и Шойгу ничего так, как считаете?

Сразу и не заметно, что это графика, полученная с использованием искусственного интеллекта.

Как это работает?

Берется нужный видеоролик и/или изображение и накладываются на другое фото или видео, которое ты хочешь отредактировать. Для получения правдоподобного результата обычно используют генеративно-состязательные нейросети (GAN). Упрощенно говоря, одна часть нейросети берет оригинал, обучается и моделирует новую картинку, но вторая занимается точно тем же. Это повторяется снова и снова, пока они не начнут путать оригинал и полученную картинку.

Чем опасно?

Технология многообщающая, но благодаря тому, что новейшие программы и распространение машинного обучения упростили создание подобных работ, заниматься этим может практически любой желающий.

Материал из открытых источников
Материал из открытых источников

Так почему это опасно? Разберем на примере этого видео.

Как уже говорилось выше, практически каждый может взять любое лицо и заставить делать и говорить то, что этот человек захочет. С распространением дипфейков появились случаи «дискредитации» публичных личностей, поскольку их фотографий в открытом доступе много, причем разнообразных. К примеру, видео с лидерами ЕР могло бы быть совсем неюмористического характера.

Кроме того, злоумышленники активно используют дипфейки для кражи персональных данных, распространения дезинформации в обществе и шантажа.

Как вам такая технология? Считаете ли вы ее опасной?


#Лавров #Шойгу #денис проценко #deepfake #дипфейк