За последние несколько лет человечество вышло на новый уровень технического прогресса. Искусственный интеллект внедряется во многие сферы жизни и профессиональную деятельность человека.
Как оказалось, использование нейросетей может не только облегчить рабочие процессы, но и стать орудием обмана.
Дипфейки: что это и какие опасности вас ожидают
Дипфейк - это технология, позволяющая изменять видеоматериалы, изображения или голоса с помощью искусственного интеллекта. Сейчас нейросети научились достаточно точно создавать цифрового двойника почти любого человека. Мошенники не стесняются использовать внешность и голос определенной личности, впоследствии представляясь ей. Например, недавно стал известен случай, когда аферисты с помощью дипфейка решили замаскироваться под руководителя одной крупной организации. Удаленный формат работы не всегда позволяет лично общаться с руководством. Так, сотрудники по просьбе руководителя, сгенерированного нейросетью, переводили денежные средства на счет злоумышленников.
Как распознать дипфейк
К счастью, на данный момент искусственный интеллект еще можно распознать. На изображениях часто могут быть лишние пальцы, детали. На видеофайлах стоит обращать внимание на неестественный изгиб бровей, движение губ, несовпадающее с речью. Посмотрите границы изображенного объекта: часто они бывают нечеткими и просматриваются границы наложенного элемента.
История подделки голоса
Думаете, что голос нельзя украсть? Сейчас мошенники активнее взламывают социальные сети и пользуются аудио сообщениями. Один из самых популярных способов обмана - подделка голоса.
Недавно, девушке пришло голосовое сообщение от подруги, в котором она плачущим голосом просит занять 200 тысяч рублей. Позвонить не может, так как сеть нестабильна и лишь иногда удается отправить голосовые сообщения.
Девушки дружили очень давно и всегда помогали друг другу в сложных ситуациях.
История подделки видеозаписи
Один из самых известных случаев подделок видеоконтента - фейк Илона Маска. В 2022 году появилось видео, в котором он призывал людей инвестировать в криптовалютную платформу мошенников. И часть людей действительно переводила деньги. Подобное видео было с одним из российских предпринимателей. Он убедительно рекламировал инвестиции с невероятно огромными процентами.
Рекомендации юристов
Не все наши читатели знают о возможностях искусственного интеллекта. Поэтому, при любых попытках занять у вас деньги, звоните друзьям, родственникам или коллегам. Не переводите крупные суммы, пока не будете уверены в личности человека.
Проверяйте номер карты и счета, куда собираетесь отправлять перевод. Рекомендуем предупредить пожилых людей о такой опасности и вовремя обращаться в правоохранительные службы. Всегда проверяйте данные на соответствие с реальностью и учитесь распознавать дипфейки.
Если вы столкнулись с подобным обманом и не знаете, как начать действовать, обращайтесь за помощью нашим юристам.
Также подписывайтесь на наш блог, узнавайте различные схемы мошенников и способы противостоять им. Оставляйте комментарии: сталкивались ли вы с таким разводом и удалось ли вам распознать нейросеть?