В последние дни новый софт под названием Deep-Live-Cam вызвал бурю обсуждений в соцсетях из-за своей способности создавать Deepfake в реальном времени с удивительной простотой. Это программное обеспечение берет единственный снимок человека и интегрирует его лицо в прямую трансляцию с веб-камеры, умело отслеживая позу, освещение и мимику. Хотя качество созданных видео не всегда идеальное, стремительное развитие этой технологии подчеркивает, как легко стало подделывать образ людей с использованием искусственного интеллекта.
Работа над Deep-Live-Cam началась с конца 2023 года, но стало приложение популярным лишь недавно, когда в сети появились видеоролики с его демонстрацией. На этих записях пользователи в реальном времени перевоплощаются в знаменитостей, таких как Илон Маск и Джордж Клуни. Внезапный рост интереса способствовал тому, что проект с открытым исходным кодом ненадолго занял первую позицию среди популярных репозиториев GitHub. ПО, доступное бесплатно на платформе GitHub, может быть использовано любым человеком, имеющим хотя бы базовые навыки программирования.
Потенциальные риски, связанные с Deep-Live-Cam, вызвали тревогу у специалистов в области технологий. Иллюстратор Кори Брикли заметил, что новейшие передовые технологии становятся доступными для злоумышленников. В своем твите он отметил: “Странно, что все важные технологические новшества в последнее время касаются области мошенничества”, добавив: “Не забывайте сообщить кодовые слова всем вашим родителям”.
Хотя в словах Брикли есть элемент иронии, это подчеркивает возможность того, что злоумышленники могут использовать такие инструменты для обмана. Учитывая широкое распространение и доступность Deepfake-технологий, идея о введении стоп-слова для проверки вашей идентичности среди близких людей кажется вполне разумной.
В феврале в Китае мошенники успешно выдали себя за высшее руководство компании, включая финансового директора, в ходе видеозвонка, что позволило им обманом заставить сотрудника перевести свыше $25 миллионов. Этот сотрудник оказался единственным реальным участником конференции. В США также произошёл случай, когда кто-то создал голосовую копию Джо Байдена, чтобы убедить людей не участвовать в праймериз в Нью-Гэмпшире. С развитием программ для создания Deepfake в реальном времени подобные мошенничества могут стать ещё более распространёнными, затрагивая не только публичных лиц, но и обычных граждан.