Теперь, когда ИИ позволяет любому, у кого есть смартфон, создавать дипфейки, казалось бы, из ничего, становится все труднее определить, является ли то, что вы видите и слышите онлайн, реальностью или вымыслом. Как появились дипфейки и есть ли им хорошее применение, — в моем конспекте статьи Bloomberg.
Как делаются дипфейки
Если раньше дипфейк можно было сделать с помощь Photoshop и других приложений, то теперь главным помощником в этом стал ИИ. Алгоритм обучается распознавать паттерны в реальных видеозаписях конкретного человека. Затем можно заменить элемент одного видео, например лицо человека, на другой фрагмент контента. Эти манипуляции в наибольшей степени вводят в заблуждение в сочетании с технологией клонирования голоса.
Как появилась технология deepfake
Издание Vice сообщило в 2017 году, что пользователь Reddit под ником deepfakes разработал алгоритм для фейковых видео с открытым исходным кодом. Раньше эта технология была достоянием академиков и исследователей, но теперь ею мог воспользоваться любой желающий. Reddit забанил пользователя, но практика быстро распространилась. Запуск Dall-E от OpenAI в 2021 году и ChatGPT в 2022 году вывел возможности на новый уровень. Современные средства создания мультимедиа с ИИ могут создавать текст, фотореалистичные изображения и — все чаще — видео всего из нескольких ключевых слов.
Как развиваются дипфейки
Чем больше библиотека контента, тем более реалистичной может быть подделка. Apple записала от 10 до 20 часов речи для создания Siri. Актер и режиссер Джордан Пил в 2018 году создал минутный дипфейк, в котором бывший президент США Барак Обама использует нецензурную брань в адрес своего преемника Дональда Трампа. Пил использовал 56 часов видеозаписей бывшего президента. Эти выборки бесконечно малы по сравнению с тем, к чему компании, занимающиеся искусственным интеллектом, сейчас применяют свои новые инструменты.
В чем здесь опасность
Хотя многие дипфейки все еще довольно некачественные и их легко обнаружить, есть опасения, что со временем они станут очень убедительными. Представьте себе мошенников, манипулирующих ценами на акции, создавая поддельные видеоролики, на которых руководители компаний публикуют корпоративные новости. Известные личности, такие как политики и бизнес-лидеры, особенно подвержены риску, учитывая, сколько их записей находится в открытом доступе. Как только видео становится вирусным в Интернете, ситуацию практически невозможно контролировать.
Как можно распознать дипфейк
Исследователи выявили признаки, которые могут указывать на то, что видео не соответствует действительности — например, если спикер некоторое время не моргает или его речь кажется слегка отрывистой, — но такие детали могут легко ускользнуть от внимания зрителя. Увеличивая насыщенность цвета на видеозаписи с человеком, можно определить его пульс по почти невидимым изменениям кожи лица; изображение, сделанное из мешанины клипов, будет иметь нерегулярный или вообще отсутствующий кровоток.
Предпринимается ли что-нибудь по этому поводу
Несколько стартапов, таких как нидерландская Sensity AI и эстонская Sentinel, разрабатывают технологию обнаружения дипфейков, как и многие крупные технологические компании. Intel запустила свой продукт FakeCatcher в ноябре прошлого года в рамках своей работы в области искусственного интеллекта. По данным компании, он может обнаруживать подделки с точностью 96%.
Есть ли позитивные примеры
Шотландская фирма CereProc создает цифровые голоса для людей, которые теряют свои собственные из-за болезней. Клонирование голоса могло бы послужить образовательной цели, воссоздав голоса исторических личностей. Так, например, CereProc создала версию последнего обращения Кеннеди, который был убит перед тем, как произнести ее.