Найти в Дзене
TECH PULSE

Как мошенники могут использовать современные технологии и украсть кучу денег.

Дженнифер ДеСтефано, мать из Аризоны, утверждает, что мошенники использовали технологию искусственного интеллекта для клонирования голоса ее дочери в схеме похищения на 1 миллион долларов. Ей позвонил кто-то, утверждающий, что похитил ее 15-летнюю дочь, когда она каталась на лыжах. Человек использовал симуляцию искусственного интеллекта, чтобы имитировать голос своей дочери, и потребовал выкуп в размере 1 миллиона долларов, позже уменьшенный до 50 000 долларов. ДеСтефано сказала, что слышала, как ее дочь плакала и умоляла о помощи на заднем плане, что убедило ее в том, что это был настоящий звонок — к счастью, матери удалось подтвердить местоположение и безопасность своей дочери после обращения в полицию. Технология, используемая для клонирования голоса дочери, была имитацией искусственного интеллекта, которая воспроизводила ее голос из кратких звуковых фрагментов. Инцидент вызвал обеспокоенность по поводу неправильного использования ИИ и потенциальной возможности его использования м

Дженнифер ДеСтефано, мать из Аризоны, утверждает, что мошенники использовали технологию искусственного интеллекта для клонирования голоса ее дочери в схеме похищения на 1 миллион долларов.

Дженнифер Дестефано говорит, что она стала мишенью для мошенничества на 1 миллион долларов с участием ИИ
Дженнифер Дестефано говорит, что она стала мишенью для мошенничества на 1 миллион долларов с участием ИИ

Ей позвонил кто-то, утверждающий, что похитил ее 15-летнюю дочь, когда она каталась на лыжах. Человек использовал симуляцию искусственного интеллекта, чтобы имитировать голос своей дочери, и потребовал выкуп в размере 1 миллиона долларов, позже уменьшенный до 50 000 долларов.

ДеСтефано сказала, что слышала, как ее дочь плакала и умоляла о помощи на заднем плане, что убедило ее в том, что это был настоящий звонок — к счастью, матери удалось подтвердить местоположение и безопасность своей дочери после обращения в полицию.

Технология, используемая для клонирования голоса дочери, была имитацией искусственного интеллекта, которая воспроизводила ее голос из кратких звуковых фрагментов. Инцидент вызвал обеспокоенность по поводу неправильного использования ИИ и потенциальной возможности его использования мошенниками для манипулирования людьми новыми и изощренными способами.

Профессор компьютерных наук и специалист по ИИ в Университете штата Аризона Суббарао Камбампати объяснил, что моделирование ИИ может приблизиться к воспроизведению чьего-либо голоса всего за три секунды звука.

Чтобы избежать подобных мошенничеств, советуем людям быть осторожными со своей личной информацией в социальных сетях, поскольку мошенники могут использовать это, чтобы покопаться в их жизни и создать убедительную историю. Майо рекомендует задавать вопросы о близких, которых мошенники не знают, чтобы подтвердить их личность.

Этот инцидент подчеркивает важность бдительности и осознания потенциала использования технологии искусственного интеллекта в мошенничестве.

Подписывайся на наш канал, ставь лайк и оставляй своё мнение!