Найти тему

Нейросети и дипфейки. Мошенники стали массово использовать IT-технологии для кражи денег у россиян

Продукт, созданный нейросетью

Если слово "Нейросеть" стало уже вполне себе привычным и часто используется в разговорной речи, то слово "Дипфейк" может быть новым и непонятным некоторым.

Специально для них:

"Дипфейк" (от deep learning — «глубокое обучение» и fake — «подделка») — медиаконтент, созданный нейросетью на основе существующего видео, изображения или звука. Также дипфейками называют контент, полученный в результате этого синтеза.

Центральный Банк России распространил информацию, в которой предостерегает потенциальных жертв мошенников быть особенно внимательными при общении не тет-а-тет, а когда это происходит дистанционно, а речь ведётся о предоставлении финансовой помощи в том или ином виде.

Злоумышленники создают несуществующее ранее искусственное видео и отправляют его своей жертве. В качестве "виртуального клона" может выступать близкий человек, работодатель или же ещё кто-либо, кому "жертва" поверит.

Ну а далее всё сводится к тому, что бы заставить получившего это вполне реалистичное видео человека перевести деньги на счёт, карту либо по номеру телефона. Возможны и другие варианты.

Получив такое видео с просьбой об оказании срочной финансовой помощи, стоит прежде всего самому непосредственно связаться с тем, от чьего имени исходит эта "просьба" и ещё раз уточнить все детали.

Более того, если это видео пересмотреть ещё раз и более внимательно, то часто можно заметить неестественную мимику и дефекты звука, что сразу же должно насторожить.

Татьяна Сергеевна
https://www.9111.ru/questions/77777777724098828/