Дипфейки эволюционировали из развлечения в серьезный инструмент для совершения преступлений. Об этом директор центра компетенций ИИ в АНО «Цифровые платформы» Алексей Маркелов рассказал во вторник, 3 февраля. «Отличить сгенерированное мошенниками дипфейк-видео от живого человека становится сложнее, но пока это всё еще возможно благодаря техническим артефактам, которые оставляет нейросеть на материале», — сказал он в беседе с RT. По его словам, в прошлом году появились качественно новые модели, создающие полностью синтезированный контент без исходного видео, что требует комплексного подхода — правового, организационного и технического. Маркелов рассказал, что визуально проблемы в дипфейках обычно проявляются в мимике и динамике: лицо выглядит слишком «приглаженным», эмоции — упрощенными, а моргание неестественным. Он уточнил, что у дипфейка при поворотах головы или резких движениях могут появляться искажения по краям лица в зоне глаз, рта, волос или подбородка. «Особенно показательно за
Дипфейки перестали быть шуткой: как мошенники научились подделывать «живых» людей
3 февраля3 фев
113
2 мин