Технологический прогресс шагнул за горизонт. За 2019 год технологии, которые позволяют создавать искусственное «фейковое» видео очень сильно продвинулись в своем развитии. Теперь, даже не знаю, как их называть: «ученые», «режиссеры», «исследователи» научились создавать видео с вполне правдоподобной мимикой всего по одному изображению. То есть достаточно одной твоей фотографии и можно тебя хоть в космос запустить хоть в фильмах для взрослых снять. И все без твоего согласия. И это как я понимаю не монтаж, а полноценное видео с подобающими мимикой и жестами.
Такому видео даже новое название придумали «deepfake». Это объединение двух значений: «Deep Learing» означает «глубокое обучение» и «Fake» – подделка. Если коротко и обобщенно, то это создание поддельного видео с использованием Искусственного интеллекта (ИИ).
Похожие программы в мобильных приложениях позволяют состарить фото, изменить черты лица и т.д. Но это только фото, хотя и с использованием технологий «ИИ». А вот теперь настала очередь видео.
Сначала для создания таких видео использовалось наложение какого-либо изображения (например лица) на существующее видео. То есть лицо одного персонажа в исходном видео заменяют на лицо другого персонажа, добавляя ему естественную мимику и синтезируя похожий голос. И если первые попытки такого синтеза были не совсем удачные, то сегодня с развитием технологий видео становится все более качественное. Пока, конечно, подделку видно невооруженным глазом, но технологии то не стоят на месте.
А начало этого «безобразия» как обычно стоит искать в университетах. Сначала они создали технологию, по которой смогли заменить одно изображение на другое и синхронизировать мимику. А потом и крупные компании подтянулись и началось: уже разработан метод создания поддельных видеороликов с любым человеком на основе всего 1 фотографии. Разработчики говорят, что способны анимировать любую фотографию с помощью «глубокого обучения» ИИ на основе большой базы видеороликов. Т. е. «ИИ» обрабатывает огромную базу видеороликов и сам строит алгоритмы, по которым потом анимирует фотографию. Он изучает основные черты движения и мимики, а потом комбинирует их с фотографией. Они оживили Мону Лизу. И это уже не чужие движения, а вновь сгенерированные, т. е. такие какими они могли бы быть по мнению «ИИ». И вот это уже серьёзно. На YouTube можно на это посмотреть. Набираете в поисковике deepfake видео Мона Лиза. Есть видео и с фейковым Трампом и Путиным.
Правда пишут, что пока не известны случаи злонамеренного применения таких технологий. Но что значит злонамеренного применения. То есть если из-за такого видео война не началась, то можно и не расстраиваться. Еще пишут, что крупные компании, правда не пишут какие, занимаются этой проблемой, и ищут способы как такое видео выявлять.
Хорошо, что пока возможности нейронных сетей не доступны массовому пользователю, но что будет дальше?