Телефонные звонки особенно пожилым людям от имени родственников, с которыми якобы случилась беда, и требуется заплатить некую сумму для их спасения, становятся частым способом обмана. Проблема обостряется при использовании возможностей искусственного интеллекта. Как защититься от этого?
Вам звонят. На линии ваша дочь. "Мама, случилось страшное", ее голос звучит сквозь слезы. Она сообщает о ДТП по ее вине, где погибла маленькая девочка.
Затем трубку берет полицейский. Он намекает, что за определенную сумму можно облегчить участь виновной.
Конечно, позже выясняется, что все это обман.
Опасность в том, что мошенники используют программу клонирования голоса на базе искусственного интеллекта, имитируя голоса ваших родственников. Программе достаточно несколько предложений оригинала, чтобы выполнить точную имитацию голоса.
Как мошенники получают образцы голоса?
Например, через социальные сети. Выкладывали видео на YouTube или других социальных сетях?
Мошенники все шире используют технологии искусственного интеллекта, например, дипфейк или клонирование голоса для обмана, особенно пожилых людей, а также методы социальной инженерии для получения конфиденциальной информации.
Как защититься?
Главный совет в подобных ситуациях: сохраняйте спокойствие и не совершайте быстрых действий, мошенники рассчитывают именно на спонтанные действия с вашей стороны. В любом случае, вас должен насторожить запрос денег или личной информации.
Отличить сгенерированный искусственным интеллектом голос родственника от подлинного практически невозможно. Однако паузы в диалоге или неестественность в общении должны вас насторожить. В случае сомнения попросите звонящего перезвонить вам или позвоните ему сами.
Поможет также контрольный вопрос, ответ на который может знать исключительно ваш родственник, сын или дочь. Если ответа не последовало, смело прекращайте разговор. Это обман.