Бухгалтеру звонит начальник и просит сделать срочный перевод крупной суммы. А когда бухгалтер быстро это выполняет, выясняется, что это был НЕ начальник.
В интернете встречаются видео, где известный актер снимается в фильмах, где он никогда не был, или где политик говорит то, что в реальности и не думал говорить. Это и есть дипфейки.
Судя по опросам, каждый второй россиянин не знает, что такое дипфейк. Почти треть сотрудников крупных компаний уже сталкивалась с мошенническими атаками с использованием дипфейков.
Что это такое
Представьте себе талантливого пародиста, который может скопировать не только голос, но и каждую морщинку на лице оригинала. А теперь представьте, что этого пародиста создал искусственный интеллект.
Это и есть дипфейк (от англ. deepfake: deep learning — глубинное обучение + fake — подделка).
Технологически — это синтезированный контент (чаще всего видео или аудио), созданный с помощью алгоритмов машинного обучения, в частности, генеративно-состязательных сетей (GAN).
Два ИИ (искусственных интеллекта) работают в паре:
- один (генератор) создает подделку,
- а второй (дискриминатор) пытается ее отличить от оригинала.
Они соревнуются друг с другом, пока генератор не начнет производить настолько убедительные фальшивки, что дискриминатор не сможет их распознать. Это как бесконечный тренировочный бой, где оба бойца становятся все сильнее.
Кухня дипфейков: Как их делают
- Сбор данных. Нужно много изображений и видео человека, которого собираются «клонировать». Чем больше ракурсов, эмоций и освещения — тем лучше. Для голосовых дипфейков нужны часы аудиозаписей.
- Обучение модели. Собранную кучу данных «скармливают» нейросети. Она дни и ночи напролет изучает, как движутся мышцы лица, как ложится свет, как звучит голос.
- Наложение (или генерация). Когда модель натренирована, ей «подсовывают» целевое видео или аудио. Алгоритм начинает кропотливо заменять оригинальное лицо на синтезированное или подстраивать голос под нужную речь.
- Постобработка. Сырую «сборку» часто дорабатывают вручную: подгоняют цвета, убирают артефакты, добавляют шумы, чтобы видео не выглядело слишком «стерильным».
Для создания дипфейков часто используются такие инструменты, как DeepFaceLab, FaceSwap и другие специализированные программы.
Зачем их используют? Светлая и темная сторона
Вот здесь начинается самое интересное. Дипфейк — это просто инструмент. Как молоток: им можно построить дом, а можно... ну, вы поняли. Рассмотрим два момента, связанных с дипфейками - это их светлая и темная стороны.
Светлая сторона
- Киноиндустрия. Технология позволяет «омолодить» актера для роли (например, как в «Мстителях»), доиграть сцены, если актер раньше положенного времени прекратил сниматься и покинул проект или даже, не дай бог, трагически погиб во время съемок. Или, например, даже дать вторую жизнь легендам вроде Брюса Ли для рекламы.
- Образование. Представьте, что Наполеон лично рассказывает вам о битве при Аустерлице, а Эйнштейн объясняет теорию относительности своим голосом. Это может перевернуть процесс обучения.
- Искусство и развлечения. Креативные мемы, музыкальные клипы, где легендарные, но уже умершие артисты поют дуэтом с современными звездами, пародии — поле для фантазии безгранично.
- Реклама и бренды. Можно локализовать рекламу для разных стран, заставив блогера «говорить» на языке целевой аудитории, не приглашая его на съемки.
Темная сторона
- Мошенничество и фишинг. Это главная угроза. Представьте, что вам звонит ваш «начальник» (с его голосом) и просит срочно перевести деньги на «нужный счет». Или «родственник» в панике умоляет о финансовой помощи. Такие случаи уже были, и люди теряли много денег.
- Компромат и шантаж. Создание компрометирующих видео для оказания давления на человека. В этом большая опасность для женщин, для знаменитостей и не только.
- Фейковые новости и манипуляция общественным мнением. Фейковые обращения политиков, военных, высказывания, которых они не произносили, — все это может спровоцировать панику, социальные волнения или даже военные конфликты.
Можно ли защититься
Паниковать не стоит, но необходимо быть бдительным.
- Критическое мышление — наш главный щит. Видите шокирующее видео? Задайте вопросы: Кто это опубликовал? Зачем? Откуда у них этот материал? Есть ли подтверждение из других, проверенных источников?
- Внимание к деталям. Ранние дипфейки выдавали себя артефактами: размытые контуры лица, странное моргание (или его отсутствие), несинхронность губ и речи, «плывущие» зубы. Сейчас они становятся идеальнее, но мелкие ошибки еще есть.
- Цифровая гигиена. Не выкладывайте в открытый доступ тонны своих фото и видео в высоком качестве. Вы просто помогаете тренировать модели для своих же дипфейков.
- Технологии против технологий. Уже разрабатываются системы для детекции дипфейков. Крупные платформы (вроде Google) вкладывают в это миллионы. В будущем, возможно, появится цифровая «печать подлинности» для медиафайлов.
Итоги
Дипфейк — это мощнейшая технология, которая стирает грань между реальным и цифровым. Она дает невероятные творческие возможности, но и создает беспрецедентные угрозы.
«Видео-доказательство» уже перестанет быть неоспоримым аргументом. Это заставляет нас не доверять слепо картинке, а включать голову и быть умнее, внимательнее и ответственнее.
Технология не хороша и не плоха сама по себе. Все зависит от того, в чьих руках она окажется (так же, как и молоток). Наша задача — научиться жить в этом новом, стремительно меняющемся мире.
Дополнительно:
1. Нейросеть подделывает голоса живых людей и мертвых. Почему мы забываем про подделки и верим фейкам
2. Человекоподобные роботы против мошенников
Спасибо за внимание, буду признательна за ваши лайки!
_____________________________________________________