Представьте себе такую сцену. Звонит телефон. Сотрудник снимает трубку и слышит начальницу, которая в панике сообщает, что забыла перевести деньги новому подрядчику перед уходом, и ему нужно сделать это. Она диктует ему реквизиты, деньги переводятся, кризис предотвращен. Сотрудник откидывается на спинку стула, делает глубокий вдох и смотрит, как его руководительница входит в дверь. Голос на другом конце провода ей не принадлежал. На самом деле это был даже не человек. Это был аудиофейк, сгенерированный машиной Подобные атаки с использованием записанного аудио уже происходили, и не за горами появление аналогичных разговоров в режиме реального времени. Дипфейки, как аудио, так и видео, стали возможны только с развитием сложных технологий машинного обучения, которое произошло в последние годы. Они принесли с собой новый уровень неопределенности в отношении цифровых медиа. Чтобы обнаружить дипфейки, многие исследователи обращаются к анализу визуальных артефактов — мелких сбоев и несоответс