Найти в Дзене
CISOCLUB

Как дипфейки угрожают россиянам

Почти половина жителей России рискует стать жертвой цифрового обмана до конца текущего года. Специалисты в сфере искусственного интеллекта предупреждают, что распространение поддельных аудио- и видеосообщений стремительно набирает обороты, а уровень угрозы значительно возрос. Представители пресс-службы MTS AI сообщили «Известиям», что ещё недавно лишь ограниченное число интернет-пользователей сталкивалось с дипфейками, но к концу 2025 года количество атакованных может вырасти до масштабов каждого второго. По словам экспертов, сейчас наибольшее распространение получили видеосообщения и аудиофайлы, пересылаемые в мессенджерах, но уже в следующем году вектор угроз может сместиться в сторону поддельных звонков. В этом случае жертве будет казаться, что с ней разговаривает знакомый человек — например, родственник или коллега, использующий привычные интонации и манеру речи. В компании подчеркнули, что технология подделки голоса и внешности продвинулась далеко вперёд. Современные дипфейки труд
   Изображение: Sander Sammy (unsplash)
Изображение: Sander Sammy (unsplash)

Почти половина жителей России рискует стать жертвой цифрового обмана до конца текущего года. Специалисты в сфере искусственного интеллекта предупреждают, что распространение поддельных аудио- и видеосообщений стремительно набирает обороты, а уровень угрозы значительно возрос.

Представители пресс-службы MTS AI сообщили «Известиям», что ещё недавно лишь ограниченное число интернет-пользователей сталкивалось с дипфейками, но к концу 2025 года количество атакованных может вырасти до масштабов каждого второго. По словам экспертов, сейчас наибольшее распространение получили видеосообщения и аудиофайлы, пересылаемые в мессенджерах, но уже в следующем году вектор угроз может сместиться в сторону поддельных звонков. В этом случае жертве будет казаться, что с ней разговаривает знакомый человек — например, родственник или коллега, использующий привычные интонации и манеру речи.

В компании подчеркнули, что технология подделки голоса и внешности продвинулась далеко вперёд. Современные дипфейки трудно распознать даже тем, кто имеет опыт работы с цифровым контентом. Как уточнили специалисты MTS AI, раньше для создания реалистичного фейкового ролика требовались серьёзные навыки, но теперь с этой задачей справится практически любой, используя свободно доступные программы.

Представители компании также отметили, что одним из главных каналов для распространения таких материалов стали мессенджеры. В отличие от телефонных звонков, у которых есть система определения номера и другие механизмы контроля, ни кружки, ни голосовые сообщения не позволяют пользователю понять, кем и откуда они были отправлены. Более того, зачастую невозможно установить, были ли они записаны непосредственно в мессенджере или загружены извне.

По словам специалистов, уже в 2024 году злоумышленники активно пользовались этими методами, а в 2025-м ситуация только усугубилась: технологии генерации видео и подделки голоса стали доступнее и качественнее. Пресс-служба MTS AI сообщила, что мошенники массово переходят к использованию дипфейков в силу отсутствия технической возможности оперативно проверить подлинность подобных сообщений.

Эксперты подчёркивают, что проблема заключается не только в технологической оснащённости злоумышленников, но и в доверии самих пользователей. Многие до сих пор воспринимают голосовые обращения или видеосообщения как надёжный канал связи, не подозревая, что за ними может стоять подмена. Этот фактор и позволяет мошенникам действовать максимально эффективно, манипулируя эмоциями и привычками своих жертв.

Оригинал публикации на сайте CISOCLUB: "Мошенники научились маскироваться под знакомых и используют дипфейки для атак на россиян".

Смотреть публикации по категориям: Новости | Мероприятия | Статьи | Обзоры | Отчеты | Интервью | Видео | Обучение | Вакансии | Утечки | Уязвимости | Сравнения | Дайджесты | Прочее.

Подписывайтесь на нас: VK | Rutube | Telegram | Дзен | YouTube | X.