Петербуржцев предупредили о росте случаев мошенничества с использованием технологий искусственного интеллекта.
Как сообщает Piter.tv, ссылаясь на пресс-службу УБК ГУ МВД России по Петербургу и Ленобласти, злоумышленники создают реалистичные видео с изображением «родственников» (дипфейки), которые якобы просят одолжить деньги.
В ведомстве пояснили, что нейросети позволяют преступникам с одной фотографии воспроизвести мимику, голос и движения конкретного человека. Полученное видео они рассылают его близким и друзьям человека, рассчитывая на доверие и быстрый перевод средств.
МВД рекомендует перепроверять любую неожиданную просьбу о финансовой помощи, связываясь напрямую с предполагаемым отправителем.
Специалисты также советуют не переводить деньги незнакомым лицам под влиянием эмоций. В случае столкновения с подобными схемами мошенничества следует немедленно сообщить в правоохранительные органы.
Ранее телеканал «Санкт-Петербург» сообщал, что мошенники начали брать в аренду аккаунты в отечественном мессенджере МАХ.