Видео, где знакомый просит деньги и говорит о сложной жизненной ситуации, может оказаться фейковым. Об этом предупредили специалисты Альянса по защите детей в цифровой среде. Они объяснили, что аферисты могут с помощью такой технологии создать фальшивые видеозаписи, голосовые сообщения и фото. Лица и прочие биометрические данные людей на подобных материалах заменяют с помощью искусственного интеллекта. Причём процесс создания дипфейков звучит сложно. «Программа анализирует снимки и видео, чтобы понять, как выглядит, двигается и звучит определённый человек. Потом на основе этого материала нейросеть создаёт новое изображение или ролик», - объяснили эксперты. Специалисты также выделили несколько признаков дипфейков: - неплавное движение человека в видео; - смена освещения в соседних кадрах;Московский Комсомолец Тула