Добавить в корзинуПозвонить
Найти в Дзене
Вести Московского Региона

Москвичам рассказали, как распознать дипфейки

С развитием искусственного интеллекта в Сети можно легко подделать изображение человека и даже дать ему речь его же голосом. Такие видео- и аудио ролики называются дипфейками. Этой технологией часто пользуются мошенники, чтобы ввести в заблуждение жертву и выманить у него деньги или другую личную информацию. Однако любой человек при внимательном изучении видео может распознать нейросеть. Об этом москвичей предупредили в Управлении по организации борьбы с противоправным использованием информационно-коммуникационных технологий (УБК) МВД России. Как передает ТАСС, в первую очередь, нужно внимательно посмотреть на изображение человека. Дипфейк могут выдать глаза и рот, которые могут двигаться не синхронно речи и мимике. Второе, на что следует обратить внимание, — это на саму речь. Она моет быть слишком роботизированной. Ранее Вести Московского региона сообщали, что москвичи активно начали арендовать дачи в Подмосковье.
   Фото: freepik.com Анфиса Слепцова
Фото: freepik.com Анфиса Слепцова

С развитием искусственного интеллекта в Сети можно легко подделать изображение человека и даже дать ему речь его же голосом. Такие видео- и аудио ролики называются дипфейками. Этой технологией часто пользуются мошенники, чтобы ввести в заблуждение жертву и выманить у него деньги или другую личную информацию.

Однако любой человек при внимательном изучении видео может распознать нейросеть. Об этом москвичей предупредили в Управлении по организации борьбы с противоправным использованием информационно-коммуникационных технологий (УБК) МВД России.

Как передает ТАСС, в первую очередь, нужно внимательно посмотреть на изображение человека. Дипфейк могут выдать глаза и рот, которые могут двигаться не синхронно речи и мимике. Второе, на что следует обратить внимание, — это на саму речь. Она моет быть слишком роботизированной.

Ранее Вести Московского региона сообщали, что москвичи активно начали арендовать дачи в Подмосковье.