Жителей Санкт-Петербурга предупредили о продвинутый аферистах, активно использующих искусственный интеллект, чтобы создать видео с «родственниками» жертв. Нейросети могут воспроизвести мимику, голос и движения определенного человека, используя лишь одну фотографию.
Созданное при помощи нейросетей видео злоумышленники отправляют его близким и друзьям. Мошенники надеются, что жертвы им поверять и быстро переведут деньги, сообщает пресс-служба УБК ГУ МВД России по Санкт-Петербургу и Ленинградской области.
Правоохранители предупредили, в случае получения такого видео необходимо перепроверить информацию. Для этого нужно позвонить человеку, которым представляются мошенники, и уточнить, действительно ли ему нужна помощь.
Ранее Neva.Today сообщала, что законопроект о уголовном наказании за использование дипфейков планируют внести в Госдуму на этой неделе. Им хотят дополнить уголовные статьи и мошенничестве, клевете и краже.