Технологией создания дипфейков раньше владели лишь эксперты по искусственному интеллекту и спецэффектам. Новейшие программы и распространение машинного обучения упростили процесс создания фальшивых, потому опасных видео
Слово deepfake появилось несколько лет назад. Оно объединяет в себе два понятия: глубокое обучение (deep learning), то есть обучение нейросетей, и подделка (fake). Технология дипфейков заключается в синтезе ИИ человеческих изобраажений: алгоритм объединяет несколько фото, на которых человаек изображен с разным выражением лица, и делает из них видео. При этом ИИ анализирует большое количество снимков и учится тому, как может выглядеть и двигаться конкретный человек. Об этом пишет американское издание Forbes.
Многие люди опасаются этой технологии и не зря! Дело в том, что DeepFake развивается гораздо быстрее, чем многие ожидали. Уже сейчас неподготовленному человеку бывает сложно распознать обработанное видео. Потенциал технологии действительно пугает. Довольно скоро
она разовьется настолько, что мы не сможем определить, где герои видео подлинные, а где сфабрикованные компьютером.
С распространением дипфейков возникают случаи «дискредитации» публичных личностей, чьих изображений много в открытомоступе. Например, весной 2019 года в Сети было опубликовано дипфейк-видео со спикером палаты представителей конгресса США Нэнси Пелоси. Автор ролика с помощью ИИ изменил речь Пелоси так, что она плохо выговаривала слова, и пользователи, посмотревшие видео, посчитали, что политик пьяна. Ситуация вылилась в громкий скандал, и лишь спустя некоторое время было доказано, что речь Пелоси была сгенерирована ИИ.
Правозащитник Сэм Грегори рассказывает изданию Wired о том, что собой представляют дипфейки
Этот дипфейк был сделан достаточно просто. Но есть и сложные алгоритмы. Они не просто меняют тембр голоса или замедляют речь, а генерируют такие видео, на которых человек делает то, чего никогда не совершал, или говорит то, чего никогда не говорил. Уже сейчас технология претендует на то, чтобы влиять на политику, а в дальнейшем такие видео и вовсе смогут стать угрозой национальной и даже международной безопасности.
Образовательный проект Техкульт предлагает небольшую инструкцию: на что обратить внимание, чтобы распознать дипфейк.
1. Обращайте внимание на разницу в разрешении изображений лица и остальной части картинки. Оригинальные видео, как правило, имеют более высокое качество, чем «приклеенный» фрагмент.
2. Верный признак DeepFake – если лицо закрыто или показано под острым углом. Это зачастую приводит к появлению размытых артефактов или неестественных движений. Пример тому – «слияние» образов Джима Керри и Джека Николсона из фильма «Сияние».
3. О подделке такжде свидетельствует неестественный масштабы лица по отношению к голове или другим объектам в кадре. Подобный эффект можно наблюдать на примере обработанного фрагмента фильма «Терминатор»
4. Следите за неестественнными «скачками» картинки по краям лица. Края лица (подбородок, брови, скулы ) могут чередоваться между оригиналом и подменой. Любое несоответствие – признак дипфейка.
5. Еще один признак подделки – неестественные тона кожи. Сопоставление тона кожи с движениями лица, особенно на границе выдает DeepFake. Для этого достаточно посмотреть фрагмент с участием персонажа, слепленного из Джима Керри и Элисон Бри.
Материал из архива РБК Тренды
Читайте также:
Как проверить любую новость в интернете — методики «5W+H» и IMVAIN. По данным опроса Statista в 2019 году, 10% пользователей знали, что делились фальшивыми новостями, 49% опрошенных узнали об этом позже. Рассказываем, как не попадаться на fake news и прокачать критическое мышление
Как "пакет Яровой" вредит планете — опасности data-центров. С июля 2018 года в России в полной мере заработал «пакет Яровой» — свод законов по борьбе с терроризмом и защите персональных данных россиян. Операторы связи должны три года хранить информацию о звонках, сообщениях и интернет-трафике граждан и предоставлять к ней доступ силовым органам по запросу.
Что такое цифровой тоталитаризм и возможен ли он в России. Изучаем опыт цифрового тоталитаризма в Китае: как это работает, почему китайцы этому рады и по каким причинам в России эта история «не прокатит»