Добавить в корзинуПозвонить
Найти в Дзене
Реальное время

Смогут ли мошенники «взламывать» аккаунты россиян с помощью дипфейков?

В текущем году количество дипфейков в России выросло в три раза. «Это не просто мемы с голосом, не просто картинка или коллаж, а настоящие дипфейки. Это в три раза больше показателей за весь 2024 год, а 2025-й еще не закончился, и эта статистика за первую его часть», — сообщала в сентябре официальный представитель МИД страны Мария Захарова. По данным ведомства, с начала года выявлен 231 уникальный дипфейк и 29 тысяч их копий. Подавляющее большинство из них — 88% — касаются политической сферы и государственной безопасности. Казанцев на прошлой неделе предупредили о появлении дипфейка якобы с мэром города Ильсуром Метшиным. — Мэр города — публичный деятель, поэтому в интернете есть много фото и видео, которые могут быть использованы для создания таких роликов. Подделку выдает речь — на аудио заметен акцент, — предупредили в пресс-службе мэрии. Как предупреждали в МВД, татарстанцев стали «обманывать» Тоби Магуайр, Том Холланд, Роберт Дауни-младший, Федор Бондарчук и другие звезды кинемато
Оглавление

Число дипфейков в России выросло втрое, и это не предел

В текущем году количество дипфейков в России выросло в три раза. «Это не просто мемы с голосом, не просто картинка или коллаж, а настоящие дипфейки. Это в три раза больше показателей за весь 2024 год, а 2025-й еще не закончился, и эта статистика за первую его часть», — сообщала в сентябре официальный представитель МИД страны Мария Захарова.

По данным ведомства, с начала года выявлен 231 уникальный дипфейк и 29 тысяч их копий. Подавляющее большинство из них — 88% — касаются политической сферы и государственной безопасности.

Казанцев на прошлой неделе предупредили о появлении дипфейка якобы с мэром города Ильсуром Метшиным.

— Мэр города — публичный деятель, поэтому в интернете есть много фото и видео, которые могут быть использованы для создания таких роликов. Подделку выдает речь — на аудио заметен акцент, — предупредили в пресс-службе мэрии.

Как предупреждали в МВД, татарстанцев стали «обманывать» Тоби Магуайр, Том Холланд, Роберт Дауни-младший, Федор Бондарчук и другие звезды кинематографа. Мошенники, используя социальную инженерию и дипфейки, полностью берут контроль над выбором жертвы.

— Они используют функцию замены лица. Могут выступить как Том Круз, Киану Ривз, а пенсионеры, которые ни разу не видели этих актеров, могут полностью довериться этим людям, — заявил оперуполномоченный по раскрытию мошенничеств Управления уголовного розыска МВД Радис Юсупов.

  скриншот с презентации
скриншот с презентации

«Таких кейсов будет все больше»

Каждый второй россиянин, согласно исследованию «МТС Линк», не знает, что такое дипфейк. Однако в ближайшее время нас ждет эпидемия поддельных видео, уверены эксперты.

— Сейчас очень много контента в соцсетях сгенерировано искусственным интеллектом (ИИ). А при создании дипфейка ИИ не просто генерирует, а еще и, например, подставляет чужое лицо. Например, я решил «понтануться» и выложил видео, как будто меня поздравила с днем рождения Джей Ло. На самом деле, конечно, она не приходила и меня не знает. Таких кейсов, конечно, будет все больше. Инструменты будут развиваться, люди будут стараться использовать это в своих целях, в немалой степени — в преступных. Этого стоит ожидать, — предупредил в разговоре с «Реальным временем» СЕО GO Digital Азамат Сиражитдинов.

Распознавать дипфейки советуют по визуальным признакам. Но, как считают эксперты, скоро эта мера уже не поможет.

  Saradasish Pradhan на Unsplash
Saradasish Pradhan на Unsplash

— Сейчас дипфейки еще можно распознать по визуальным признакам. Стоит обращать внимание на неестественную мимику, также могут быть заметны артефакты: размытость контуров, дрожание изображения. Часто наблюдается рассинхронизация — когда движение губ не совсем совпадает со звуком. Также стоит помнить о так называемых «водяных знаках» (watermarks), которые могут присутствовать в некоторых сгенерированных видео, если их не удалили. Перспективы развития таких технологий очевидны: уже в ближайшие годы аудио— и видеодипфейки станут настолько реалистичными, что визуально отличить их от настоящих записей будет невозможно, — рассказал нашему изданию руководитель Центра информационной безопасности Университета Иннополис Михаил Серегин.

При этом в условиях низкого разрешения — например, при имитации видео с домофона или камеры наблюдения — отличить дипфейк от реальной записи практически невозможно уже сейчас.

Аналогичное мнение высказал и Азамат Сиражитдинов. По его словам, только за последний год сгенерированные нейросетями видео значительно эволюционировали.

   — На некоторых сайтах, особенно банковских, иногда вы можете авторизоваться по биометрии. Что мешает подставить большой экран с каким-нибудь очень крутым дипфейком? Условно, [продемонстрировать] в планшет, на котором будет лицо, похожее на мое, и авторизоваться, — привел пример спикер.
— На некоторых сайтах, особенно банковских, иногда вы можете авторизоваться по биометрии. Что мешает подставить большой экран с каким-нибудь очень крутым дипфейком? Условно, [продемонстрировать] в планшет, на котором будет лицо, похожее на мое, и авторизоваться, — привел пример спикер.

«Технологии генерации будут постоянно опережать средства их распознавания»

Надежное и массовое автоматическое обнаружение дипфейков вряд ли будет возможно, считает Михаил Серегин.

— Даже для анализа подлинности подписи или выявления монтажа на фотографии до сих пор требуется тщательная экспертиза со специальным инструментарием, и даже в этом случае возможны ошибки. Технологии генерации будут постоянно опережать средства их распознавания. В России ситуация аналогична общемировой: компании активно работают над технологиями детектирования дипфейков, но находятся в равных условиях с другими странами и сталкиваются с теми же фундаментальными вызовами, — пояснил руководитель Центра информационной безопасности.

Как в таком случае граждане и бизнес будут защищаться от усовершенствованных дипфейков? «Только законодательно», — говорит Азамат Сиражитдинов. Пока термин «дипфейк» не закреплен юридически. Но даже если он появится, апеллировать будут к уже существующим статьям — например, о мошенничестве или унижению чести и достоинства.

  Zac Wolff на Unsplash
Zac Wolff на Unsplash

Ключевую роль в ограничении распространения дипфейков могли бы сыграть крупные ИИ-платформы.

— Например, они могут внедрять механизмы проверки происхождения контента и определять, было ли видео сгенерировано с использованием их сервисов. Для большинства случаев, когда видео не подвергается серьезной постобработке, такие методы могли бы стать действенным инструментом и помочь пользователям самостоятельно проверять достоверность контента, — объяснил Серегин.

Главное, по его словам, — это развитие цифровой грамотности и здоровой недоверчивости. Основное правило: не поддаваться на импульсивные действия, даже если звонок или сообщение кажутся абсолютно достоверными.

— Раньше люди верили абсолютно всему, что сказано в газетах, сейчас сразу на веру воспринимают то, что увидено в интернете. Думаю, что из-за дипфейков мы цивилизационно переживем какой-то этап и уже в 2027—2028 годах будем это воспринимать как детский сад «Ромашка», — согласен Сиражитдинов.

Автор: Галия Гарифуллина