Скачок в развитии искусственного интеллекта серьезно обеспокоил общество, и одной и тем, вызывающих серьезные опасения, стала технология DeepFake. Многие уже слышали о том, якобы можно создать видео с человеком, где он будет делать то, что надо заказчику, и отличить такое видео от оригинала будет якобы невозможно.
Так ли это? В интернете можно найти много примеров использования технологии DeepFake разного качества и разной направленности, созданных для развлечения. Ну, мы не знаем, насколько профессиональные специалисты их делали. Может быть, если собрать по-настоящему умелых профессионалов, то результат будет намного лучше? Если привлечь лучших операторов, самые современные видеокамеры и ведеокарты? А что, если такие видео будут делать для того, чтобы показывать в новостях по телевизору, чтобы нас обмануть? Такие мысли, наверное, посещали многих.
И вот свершилось. DeepFake показали в новостях, думаю, не нужно говорить, какой страны. Речь идет о Кирилле Буданове. Впрочем, в наших новостях это видео тоже показали. Вы его легко можете найти в интернете.
Ну что я могу сказать: что человек выглядит как-то не так, заметно сразу. И даже по телевизору. Стоит заметить, что средний монитор выдает качество изображения гораздо лучше, чем средний телевизор. И, если при первом просмотре по телевизору видео вызывает недоумение, то при просмотре по монитору вопросов больше не возникает – это DeepFake. Понятно это даже наблюдательным пенсионерам, которые и слова такого не знают.
Таким образом, подобной технологией обмануть конечно, кого-то можно, но разве без технологии нельзя? Вспомните фильм про Фантомаса. На самом деле ничего в этом особенного нет. В фильме герои не замечают, что Фантомас, натянув лицо другого человека, отличается от него телосложением, например. Ну а чтобы сделать поддельное лицо, не нужно быть Фантомасом. Вся разница в том, что грим надо полдня накладывать. Впрочем, подготовка к DeepFake тоже не мгновенная.
Думаю, подготовленный двойник или хороший актер изобразят, кого надо, даже лучше, чем самый качественный DeepFake.
Таким образом, мы увидели, что технология DeepFake для видео совершенно сырая. Пока что ее можно использовать для развлечения, для создания образов на сайте знакомств и для проверки внимательности служб безопасности некоторых организаций.