Найти в Дзене
YouStory Global

Анализ дипфейков: учимся отличать ложь от правды в эпоху нейросетей

Поговорка «лучше один раз увидеть, чем сто раз услышать» сегодня устарела. Технологии искусственного интеллекта позволяют создавать настолько реалистичные поддельные видео и аудио (так называемые дипфейки), что даже самому внимательному зрителю сложно отличить правду от вымысла. В этой статье мы расскажем, как работает анализ дипфейков и поделимся примерами реальных разоблачений. Материал подготовлен при поддержке репутационного агентства YouStory Global: защита от дипфейков, изъятие из Сети нежелательных материалов, аудит репутационных рисков для персон и компаний. Дипфейк — это видео или аудиозапись, созданная или измененная с помощью нейросетей. Если раньше подделки были грубыми и заметными, то современные алгоритмы могут безупречно «пересадить» лицо, изменить речь или заставить человека на видео говорить то, чего он никогда не говорил. Сначала дипфейки создавались с помощью технологии GAN, где две нейросети (одна — генерирует, другая — проверяет) соревновались друг с другом, делая
Оглавление

Поговорка «лучше один раз увидеть, чем сто раз услышать» сегодня устарела. Технологии искусственного интеллекта позволяют создавать настолько реалистичные поддельные видео и аудио (так называемые дипфейки), что даже самому внимательному зрителю сложно отличить правду от вымысла. В этой статье мы расскажем, как работает анализ дипфейков и поделимся примерами реальных разоблачений.

Источник фото — unsplash.com
Источник фото — unsplash.com

Материал подготовлен при поддержке репутационного агентства YouStory Global: защита от дипфейков, изъятие из Сети нежелательных материалов, аудит репутационных рисков для персон и компаний.

Что такое дипфейк и почему его сложно распознать?

Дипфейк — это видео или аудиозапись, созданная или измененная с помощью нейросетей. Если раньше подделки были грубыми и заметными, то современные алгоритмы могут безупречно «пересадить» лицо, изменить речь или заставить человека на видео говорить то, чего он никогда не говорил.

Сначала дипфейки создавались с помощью технологии GAN, где две нейросети (одна — генерирует, другая — проверяет) соревновались друг с другом, делая подделку всё совершеннее. Сегодня для этого используются более сложные диффузионные модели, которые буквально «рисуют» лицо по шагам, убирая шум. В аудио применяются трансформеры, способные скопировать тембр и интонации любого человека.

Но идеальных дипфейков не существует. Даже самая продвинутая модель оставляет следы — артефакты.

Анализ дипфейков с помощью системы «Зефир: реальные кейсы

Для борьбы с мошенническими дипфейками создаются специальные системы-детекторы. Одна из них — система мониторинга «Зефир», разработанная АНО «Диалог Регионы» для выявления сфабрикованного аудиовизуального контента.

Система работает на основе сочетания моделей машинного обучения, анализируя материалы по разным параметрам: распознавание дипфейков, анализ спуфинга голоса, транскрибирование аудио, поиск дубликатов и т.д. Разработчики заявляют, что точность распознавания дипфейков с помощью системы «Зефир» составляет 81%.

Приведём несколько примеров анализа и разоблачения фальшивого контента.

Стоит отметить, что дипфейк с Валентиной Матвиенко появился не на пустом месте: не так давно спикер Совета Федерации предложила идею о финансировании страховых полисов со стороны тех, кто имеет скрытые доходы, при этом официально нигде не трудоустроен. Цитата активно разошлась по СМИ, однако предложение не касалось необходимости введения взносов для абсолютно всех безработных и, тем более, пенсионеров.

Даже если видео похоже на правду, не всегда стоит этому верить. Особенно в случае громких заявлений, способных вызвать общественные беспорядки и негативные настроения.

Дело в том, что, по данным исследования АНО «Диалог Регионы», в 2025 году в русскоязычном сегменте зафиксирован резкий рост фейков на политиков и крупных чиновников, и создатели таких подделок явно преследуют цель раскачать общество.

Доступные способы анализа дипфейков

  1. Не верьте сразу. Остановите видео, послушайте звук. Появились подозрения? Проверьте факты через поиск в интернете, при этом ориентируйтесь на крупные, уважаемые СМИ и официальные источники информации, такие как сайты государственных ведомств.
  2. Проверьте файл через онлайн-детекторы. Например, есть сайт deepfakedetector.ai, куда можно загрузить фотографии и видео для проверки на наличие признаков подделки. Сервис с помощью машинного обучения и компьютерного зрения проводит анализ материала и выдаёт ответ, какова вероятность, что контент является результатом манипуляции.
  3. Также доступны другие антифейк сервисы: sensity.ai, deepfake-o-meter, realitydefender.com.
  4. Сделайте обратный поиск изображения. А именно: загрузите фото или скрин видео в поиск по картинкам Яндекса, нажав на значок фото справа в строке. Это позволит найти оригинальное видео, на основе которого сформировали фейк.

Основные признаки дипфейка: на что смотреть в первую очередь?

Вот простой чек-лист, который поможет заподозрить подделку:

1. Лицо и мимика:

  • Человек моргает слишком редко или неестественно.
  • Зубы выглядят как сплошная белая пластина, без промежутков.
  • Тени и блики на лице не соответствуют освещению в комнате.
  • Контур волос размытый или слишком резкий.

2. Аудио:

  • Голос звучит «ровно», без эмоциональных колебаний.
  • В речи нет естественных пауз для вдоха.
  • Синхронизация движений губ и звука нарушена.

3. Контекст:

  • Видео или новость не публикуются авторитетными источниками.
  • Также обратите внимание, что фон для видео может быть из другого видео. Чтобы проверить это, сделайте скрин ролика и проведите поиск по картинке через Яндекс или Google.

Если вы заметили хотя бы 2-3 из перечисленных выше признаков, стоит отнестись к контенту с большим скепсисом.

Какие фразы выдают мошенников?

Мошенники активно используют дипфейки для видеозвонков, чтобы под разным предлогом выманивать у людей деньги. МВД РФ назвало самые распространённые фразы, которые должны насторожить:

  • «Мама / папа, я в беде, срочно нужны деньги».
  • «Это срочно, переведи на эту карту».
  • «У меня проблемы, помоги».
  • «Это ваш руководитель, в связи с проверкой с вами сейчас будет связываться сотрудник ФСБ».

Представители правоохранительных органов советуют: услышав такое, положите трубку и никогда не называйте коды из смс. Так мошенники могут получить доступ к вашим аккаунтам, в том числе на «Госуслугах».

Помните: если что-то кажется слишком сенсационным или эмоционально заряженным, всегда есть шанс, что за этим стоит дипфейк.

Спасибо за внимание! Готовы ответить на ваши вопросы! За защитой себя и своего бизнеса от дипфейков, клеветы и негатива в интернете обращайтесь в репутационное агентство YouStory Global. Мы удаляем нежелательные материалы из Сети в короткий срок и только законными методами.

Реклама. Рекламодатель — ИП Городничев. ИНН 590849322520. erid: 2Vtzqwmdjfx