Добавить в корзинуПозвонить
Найти в Дзене
Аргументы и факты – aif.ru

Мясоедов сказал, как могли сделать фейковое видео Зеленского на передовой

Видео с Зеленским у стелы Купянска в Харьковской области могли сгенерировать с использованием нейросети. Об этой технологии aif.ru рассказал эксперт по кибербезопасности Павел Мясоедов. «Пару лет назад видео, сгенерированное нейросетью, было несложно отличить от реального видео. Просто появлялись артефакты на стыке объектов. Например, на стыке человеческого тела и неба могли быть задвоены руки, пальцы. Была неестественная мимика, особенно если объект перемещался в пространстве. Сейчас зачастую отличить сгенерированное искусственным интеллектом видео невозможно», - отметил он. По словам эксперта, для создания фейкового видео необходимы специальные программы и сервисы, а также исходный материал, на который будет ориентироваться нейросеть. Мясоедов подчеркнул, что случае с публичными лицами такого материала достаточно. «То, что не видит человеческий глаз в случае с фейковым видео, могут отличить специальные программы на базе искусственного интеллекта, которые натренированы на то, чтобы вы
   Мясоедов сказал, как могли сделать фейковое видео Зеленского на передовой
Мясоедов сказал, как могли сделать фейковое видео Зеленского на передовой

Видео с Зеленским у стелы Купянска в Харьковской области могли сгенерировать с использованием нейросети. Об этой технологии aif.ru рассказал эксперт по кибербезопасности Павел Мясоедов.

«Пару лет назад видео, сгенерированное нейросетью, было несложно отличить от реального видео. Просто появлялись артефакты на стыке объектов. Например, на стыке человеческого тела и неба могли быть задвоены руки, пальцы. Была неестественная мимика, особенно если объект перемещался в пространстве. Сейчас зачастую отличить сгенерированное искусственным интеллектом видео невозможно», - отметил он.

По словам эксперта, для создания фейкового видео необходимы специальные программы и сервисы, а также исходный материал, на который будет ориентироваться нейросеть. Мясоедов подчеркнул, что случае с публичными лицами такого материала достаточно.

«То, что не видит человеческий глаз в случае с фейковым видео, могут отличить специальные программы на базе искусственного интеллекта, которые натренированы на то, чтобы выявлять любую искусственно созданную информацию, будь это текст, или аудио, или видео, или изображение. На глаз это сделать очень сложно.. Единственное, на что можно опираться, это на общее ощущение неестественности: неправильно тени лежат, неправильно перемещается объект в пространстве. Чем больше у объекта движений, тем проще выявить подделку», - объяснил эксперт.

Комментируя видео с Зеленским, он отметил, что высока вероятность его создания с использованием нейросети. Кроме того, эксперт поделился мнением, что кадры могли быть записано некоторое время назад.

АиФ в MAX https://max.ru/aif

АиФ в Телеграм

Официальный канал АиФ https://t.me/aifonline

АиФ. Здоровье https://t.me/aif_health

АиФ. На даче https://t.me/aif_dacha

АиФ. Кухня https://t.me/aif_food

Вопрос-Ответ — вопросы, ответы, викторины и интересные факты обо всем на свете. https://t.me/aif_vo