Найти в Дзене

Дипфейки: искусство подделки реальности

Оглавление

Бухгалтеру звонит начальник и просит сделать срочный перевод крупной суммы. А когда бухгалтер быстро это выполняет, выясняется, что это был НЕ начальник.

В интернете встречаются видео, где известный актер снимается в фильмах, где он никогда не был, или где политик говорит то, что в реальности и не думал говорить. Это и есть дипфейки.

Судя по опросам, каждый второй россиянин не знает, что такое дипфейк. Почти треть сотрудников крупных компаний уже сталкивалась с мошенническими атаками с использованием дипфейков.

Что это такое

Представьте себе талантливого пародиста, который может скопировать не только голос, но и каждую морщинку на лице оригинала. А теперь представьте, что этого пародиста создал искусственный интеллект.

Это и есть дипфейк (от англ. deepfake: deep learning — глубинное обучение + fake — подделка).

Технологически — это синтезированный контент (чаще всего видео или аудио), созданный с помощью алгоритмов машинного обучения, в частности, генеративно-состязательных сетей (GAN).

Два ИИ (искусственных интеллекта) работают в паре:

  • один (генератор) создает подделку,
  • а второй (дискриминатор) пытается ее отличить от оригинала.

Они соревнуются друг с другом, пока генератор не начнет производить настолько убедительные фальшивки, что дискриминатор не сможет их распознать. Это как бесконечный тренировочный бой, где оба бойца становятся все сильнее.

Кухня дипфейков: Как их делают

  1. Сбор данных. Нужно много изображений и видео человека, которого собираются «клонировать». Чем больше ракурсов, эмоций и освещения — тем лучше. Для голосовых дипфейков нужны часы аудиозаписей.
  2. Обучение модели. Собранную кучу данных «скармливают» нейросети. Она дни и ночи напролет изучает, как движутся мышцы лица, как ложится свет, как звучит голос.
  3. Наложение (или генерация). Когда модель натренирована, ей «подсовывают» целевое видео или аудио. Алгоритм начинает кропотливо заменять оригинальное лицо на синтезированное или подстраивать голос под нужную речь.
  4. Постобработка. Сырую «сборку» часто дорабатывают вручную: подгоняют цвета, убирают артефакты, добавляют шумы, чтобы видео не выглядело слишком «стерильным».

Для создания дипфейков часто используются такие инструменты, как DeepFaceLab, FaceSwap и другие специализированные программы.

Зачем их используют? Светлая и темная сторона

-2

Вот здесь начинается самое интересное. Дипфейк — это просто инструмент. Как молоток: им можно построить дом, а можно... ну, вы поняли. Рассмотрим два момента, связанных с дипфейками - это их светлая и темная стороны.

Светлая сторона

  • Киноиндустрия. Технология позволяет «омолодить» актера для роли (например, как в «Мстителях»), доиграть сцены, если актер раньше положенного времени прекратил сниматься и покинул проект или даже, не дай бог, трагически погиб во время съемок. Или, например, даже дать вторую жизнь легендам вроде Брюса Ли для рекламы.
  • Образование. Представьте, что Наполеон лично рассказывает вам о битве при Аустерлице, а Эйнштейн объясняет теорию относительности своим голосом. Это может перевернуть процесс обучения.
  • Искусство и развлечения. Креативные мемы, музыкальные клипы, где легендарные, но уже умершие артисты поют дуэтом с современными звездами, пародии — поле для фантазии безгранично.
  • Реклама и бренды. Можно локализовать рекламу для разных стран, заставив блогера «говорить» на языке целевой аудитории, не приглашая его на съемки.

Темная сторона

  • Мошенничество и фишинг. Это главная угроза. Представьте, что вам звонит ваш «начальник» (с его голосом) и просит срочно перевести деньги на «нужный счет». Или «родственник» в панике умоляет о финансовой помощи. Такие случаи уже были, и люди теряли много денег.
  • Компромат и шантаж. Создание компрометирующих видео для оказания давления на человека. В этом большая опасность для женщин, для знаменитостей и не только.
  • Фейковые новости и манипуляция общественным мнением. Фейковые обращения политиков, военных, высказывания, которых они не произносили, — все это может спровоцировать панику, социальные волнения или даже военные конфликты.

Можно ли защититься

Паниковать не стоит, но необходимо быть бдительным.

  1. Критическое мышление — наш главный щит. Видите шокирующее видео? Задайте вопросы: Кто это опубликовал? Зачем? Откуда у них этот материал? Есть ли подтверждение из других, проверенных источников?
  2. Внимание к деталям. Ранние дипфейки выдавали себя артефактами: размытые контуры лица, странное моргание (или его отсутствие), несинхронность губ и речи, «плывущие» зубы. Сейчас они становятся идеальнее, но мелкие ошибки еще есть.
  3. Цифровая гигиена. Не выкладывайте в открытый доступ тонны своих фото и видео в высоком качестве. Вы просто помогаете тренировать модели для своих же дипфейков.
  4. Технологии против технологий. Уже разрабатываются системы для детекции дипфейков. Крупные платформы (вроде Google) вкладывают в это миллионы. В будущем, возможно, появится цифровая «печать подлинности» для медиафайлов.

Итоги

Дипфейк — это мощнейшая технология, которая стирает грань между реальным и цифровым. Она дает невероятные творческие возможности, но и создает беспрецедентные угрозы.

«Видео-доказательство» уже перестанет быть неоспоримым аргументом. Это заставляет нас не доверять слепо картинке, а включать голову и быть умнее, внимательнее и ответственнее.

Технология не хороша и не плоха сама по себе. Все зависит от того, в чьих руках она окажется (так же, как и молоток). Наша задача — научиться жить в этом новом, стремительно меняющемся мире.

Дополнительно:

1. Нейросеть подделывает голоса живых людей и мертвых. Почему мы забываем про подделки и верим фейкам

2. Человекоподобные роботы против мошенников

Спасибо за внимание, буду признательна за ваши лайки!

_____________________________________________________

Каналы КомпГрамотности Telegram, Rutube, Youtube, VK