В видео из новостного сообщения от 25 января президент Джо Байден говорит о танках. Но сфальсифицированная версия видео на этой неделе набрала сотни тысяч просмотров в социальных сетях, создав впечатление, что он произнес речь, в которой нападает на трансгендеров.
Эксперты по цифровой криминалистике говорят, что видео было создано с использованием инструментов искусственного интеллекта нового поколения, которые позволяют любому быстро генерировать звук, имитирующий голос человека, несколькими нажатиями кнопки. И хотя ролик Байдена в социальных сетях, возможно, на этот раз не смог обмануть большинство пользователей, этот клип показывает, как легко теперь людям создавать ненавистные и наполненные дезинформацией «дипфейки», которые могут нанести реальный вред.
«Подобные инструменты в основном подливают масла в огонь», — сказал Хафиз Малик, профессор электротехники и вычислительной техники в Мичиганском университете, специализирующийся на мультимедийной криминалистике. «Монстр уже на свободе».
Он появился в прошлом месяце с бета-фазой платформы синтеза голоса ElevenLabs, которая позволяла пользователям создавать реалистичный звук голоса любого человека, загружая несколько минут звуковых образцов и вводя любой текст для его произнесения.
Стартап говорит, что технология была разработана для дублирования аудио на разных языках для фильмов, аудиокниг и игр, чтобы сохранить голос и эмоции говорящего.
Пользователи социальных сетей быстро начали делиться сгенерированными искусственным интеллектом аудиоотрывками, на котором Хиллари Клинтон читает тот же трансфобный текст, что и в клипе Байдена, наряду с поддельными аудиозаписями Билла Гейтса, якобы говорящего, что вакцина от COVID-19 вызывает СПИД, и актрисы Эммы Уотсон, якобы читающей Манифест Гитлера «Майн кампф».
Вскоре после этого ElevenLabs написала в Твиттере, что наблюдает «растущее число случаев неправомерного использования клонирования голоса», и объявила, что в настоящее время изучает меры безопасности для пресечения злоупотреблений. Одним из первых шагов было сделать эту функцию доступной только для тех, кто предоставляет платежную информацию. Первоначально анонимные пользователи могли получить доступ к инструменту клонирования голоса бесплатно. Компания также утверждает, что в случае возникновения проблем она может отследить любой сгенерированный звук до создателя.
Но даже возможность отслеживать создателей не снизит вреда от инструмента, считает Хани Фарид, профессор Калифорнийского университета в Беркли, специализирующийся на цифровой криминалистике и дезинформации.
- «Ущерб нанесен», — сказал он.
В качестве примера Фарид сказал, что злоумышленники могут повлиять на фондовый рынок фальшивым звуком, в котором топ-генеральный директор говорит, что прибыль падает. И уже есть клип на YouTube, в котором этот инструмент использовался для изменения видео, чтобы казалось, что Байден сказал, что США наносят ядерный удар по России.
«Вопрос в том, куда указать пальцем и как загнать джина обратно в бутылку?» — сказал Малик. «Мы не можем этого сделать».
Когда около пяти лет назад дипфейки впервые попали в заголовки, их было достаточно легко обнаружить, поскольку субъект не моргал, а звук звучал как робот. Это уже не так, поскольку инструменты становятся все более изощренными.
Например, измененное видео, на котором Байден делает уничижительные комментарии о трансгендерах, объединило звук, сгенерированный ИИ, с реальным клипом президента, взятым из прямой трансляции CNN от 25 января, в которой сообщалось об отправке США танков в Украину. Рот Байдена был изменен на видео, чтобы соответствовать звуку. Хотя большинство пользователей Твиттера признали, что Байден вряд ли мог сказать этот контент, они, тем не менее, были шокированы тем, насколько реалистичным он выглядел. Другие, похоже, верили, что это было реально, или, по крайней мере, не знали, чему верить.
Присоединяйтесь к нам в социальных сетях и оставайтесь в курсе последних новостей, обновлений и интересных материалов!