Найти тему

Мошенники освоили искусственный интеллект: как обманывают в современном мире

За последние несколько лет человечество вышло на новый уровень технического прогресса. Искусственный интеллект внедряется во многие сферы жизни и профессиональную деятельность человека.

Как оказалось, использование нейросетей может не только облегчить рабочие процессы, но и стать орудием обмана.

В этой статье мы расскажем, как не стать жертвой “кибермошенников” и вовремя распознать сценарий искусственного интеллекта.
В этой статье мы расскажем, как не стать жертвой “кибермошенников” и вовремя распознать сценарий искусственного интеллекта.

Дипфейки: что это и какие опасности вас ожидают

Дипфейк - это технология, позволяющая изменять видеоматериалы, изображения или голоса с помощью искусственного интеллекта. Сейчас нейросети научились достаточно точно создавать цифрового двойника почти любого человека. Мошенники не стесняются использовать внешность и голос определенной личности, впоследствии представляясь ей. Например, недавно стал известен случай, когда аферисты с помощью дипфейка решили замаскироваться под руководителя одной крупной организации. Удаленный формат работы не всегда позволяет лично общаться с руководством. Так, сотрудники по просьбе руководителя, сгенерированного нейросетью, переводили денежные средства на счет злоумышленников.

Как распознать дипфейк

К счастью, на данный момент искусственный интеллект еще можно распознать. На изображениях часто могут быть лишние пальцы, детали. На видеофайлах стоит обращать внимание на неестественный изгиб бровей, движение губ, несовпадающее с речью. Посмотрите границы изображенного объекта: часто они бывают нечеткими и просматриваются границы наложенного элемента.

Сейчас разрабатываются специальные программы, позволяющее вовремя распознавать дипфейки. В отличие от человеческого глаза, программный код анализирует видеоизображения и замечают даже неочевидные отклонения.
Сейчас разрабатываются специальные программы, позволяющее вовремя распознавать дипфейки. В отличие от человеческого глаза, программный код анализирует видеоизображения и замечают даже неочевидные отклонения.

История подделки голоса

Думаете, что голос нельзя украсть? Сейчас мошенники активнее взламывают социальные сети и пользуются аудио сообщениями. Один из самых популярных способов обмана - подделка голоса.

Недавно, девушке пришло голосовое сообщение от подруги, в котором она плачущим голосом просит занять 200 тысяч рублей. Позвонить не может, так как сеть нестабильна и лишь иногда удается отправить голосовые сообщения.

Девушки дружили очень давно и всегда помогали друг другу в сложных ситуациях.

В такой ситуации кто угодно может испугаться и перестать рационально мыслить. Конечно, девушка перевела подруге деньги. Только вот номер карты был не её. Спустя два часа зазвонил телефон. На этот раз звонила реальная подруга. Она поделилась, что ее страницу взломали и отправили кучу голосовых сообщений с просьбой занять деньги. Девушка обратилась за юридической консультацией и написала заявление в полицию.
В такой ситуации кто угодно может испугаться и перестать рационально мыслить. Конечно, девушка перевела подруге деньги. Только вот номер карты был не её. Спустя два часа зазвонил телефон. На этот раз звонила реальная подруга. Она поделилась, что ее страницу взломали и отправили кучу голосовых сообщений с просьбой занять деньги. Девушка обратилась за юридической консультацией и написала заявление в полицию.

История подделки видеозаписи

Один из самых известных случаев подделок видеоконтента - фейк Илона Маска. В 2022 году появилось видео, в котором он призывал людей инвестировать в криптовалютную платформу мошенников. И часть людей действительно переводила деньги. Подобное видео было с одним из российских предпринимателей. Он убедительно рекламировал инвестиции с невероятно огромными процентами.

Вероятно, в скором будущем мошенники будут редактировать и видеосообщения.
Вероятно, в скором будущем мошенники будут редактировать и видеосообщения.

Рекомендации юристов

Не все наши читатели знают о возможностях искусственного интеллекта. Поэтому, при любых попытках занять у вас деньги, звоните друзьям, родственникам или коллегам. Не переводите крупные суммы, пока не будете уверены в личности человека.

Проверяйте номер карты и счета, куда собираетесь отправлять перевод. Рекомендуем предупредить пожилых людей о такой опасности и вовремя обращаться в правоохранительные службы. Всегда проверяйте данные на соответствие с реальностью и учитесь распознавать дипфейки.

Если вы столкнулись с подобным обманом и не знаете, как начать действовать, обращайтесь за помощью нашим юристам.

Также подписывайтесь на наш блог, узнавайте различные схемы мошенников и способы противостоять им. Оставляйте комментарии: сталкивались ли вы с таким разводом и удалось ли вам распознать нейросеть?