Найти в Дзене
Москва 24

МИД РФ предупредил о появившемся дипфейке с имитацией голоса Захаровой

[ СМОТРЕТЬ ВИДЕО НА САЙТЕ МОСКВА 24 ] МИД России предупредил о появлении в Сети дипфейка, созданного с использованием искусственного интеллекта, который имитирует голос официального представителя ведомства Марии Захаровой. Пост опубликован в телеграм-канале министерства. Ролик начал распространяться в соцсетях, уточнили в МИД. Видео создано на основе кадров интервью Захаровой в эфире радио Sputnik 1 октября 2025 года. "Это очередная фальшивка, созданная с помощью технологий искусственного интеллекта: сгенерированная нейросетью аудиодорожка, имитирующая голос Марии Захаровой, наложена на реальные кадры из интервью", – пояснили в ведомстве. В фейковом видео обсуждаются якобы события, связанные с СВО и ситуацией в Европе, однако реальные кадры относятся к выборам в Молдавии. "Напоминаем о необходимости тщательно проверять публикуемую в соцсетях информацию, в том числе достоверность видеоконтента, на официальных ресурсах", – предупредили в МИД РФ. Глава ведомства Сергей Лавров, столкнувшис
   телеграм-канал "МИД России"
телеграм-канал "МИД России"

[ СМОТРЕТЬ ВИДЕО НА САЙТЕ МОСКВА 24 ]

МИД России предупредил о появлении в Сети дипфейка, созданного с использованием искусственного интеллекта, который имитирует голос официального представителя ведомства Марии Захаровой. Пост опубликован в телеграм-канале министерства.

Ролик начал распространяться в соцсетях, уточнили в МИД. Видео создано на основе кадров интервью Захаровой в эфире радио Sputnik 1 октября 2025 года.

"Это очередная фальшивка, созданная с помощью технологий искусственного интеллекта: сгенерированная нейросетью аудиодорожка, имитирующая голос Марии Захаровой, наложена на реальные кадры из интервью", – пояснили в ведомстве.

В фейковом видео обсуждаются якобы события, связанные с СВО и ситуацией в Европе, однако реальные кадры относятся к выборам в Молдавии.

"Напоминаем о необходимости тщательно проверять публикуемую в соцсетях информацию, в том числе достоверность видеоконтента, на официальных ресурсах", – предупредили в МИД РФ.

Глава ведомства Сергей Лавров, столкнувшись с феноменом дипфейков, еще несколько лет назад обратил внимание на их реалистичность, рассказывала ранее Захарова. Дипломат вспомнила, как несколько лет назад ей позвонил Лавров и рассказал о видеоролике с якобы его изображением, который вызвал у него сомнения.

До этого эксперты предупредили о росте дипфейк-атак к концу 2025 года. Аферисты все чаще используют фотографии или видеозаписи, на которых голос или внешность человека подделаны с помощью нейросети.

По данным специалистов, к концу года каждый второй россиянин может столкнуться с таким способом обмана. С совершенствованием технологий распознать такое мошенничество становится сложнее.

Читайте "Москва 24" в Telegram - подписаться