Найти в Дзене

ИИ на службе... аферистов

Нейросети прочно вошли в нашу жизнь, изрядно облегчив жизнь программистам, кодерам, дизайнерам и др. Но не только. Сегодня поговорим о том, как ИИ облегчает жизнь... аферистам и мошенникам. Как мошенники могут использовать ИИ: Имеется немало способов применения нейросетей в целях мошенничества. Это и подделка документов, и голосовые дипфейки (подделка голоса) и организация сбора средств якобы на благотворительные цели, и шантаж с использованием поддельных видео- и фотодокументов, а также фишинговые рассылки для сбора личных данных. Мошенники могут использовать нейросети для создания фейковых новостей и рассылок. В них включаются различные ссылки на ресурсы, при переходе по которым можно оставить данные своей банковской карты или другую персональную информацию. ИИ позволяет создавать фальшивые отзывы и рейтинги. Чат-боты могут придумать сценарий для телефонного звонка и облегчить работу преступникам.
Нейросети учатся поддерживать разговор. ИИ может взять на себя роль мнимых сотруд

Нейросети прочно вошли в нашу жизнь, изрядно облегчив жизнь программистам, кодерам, дизайнерам и др. Но не только. Сегодня поговорим о том, как ИИ облегчает жизнь... аферистам и мошенникам.

Яндекс картинки
Яндекс картинки

Как мошенники могут использовать ИИ:

Имеется немало способов применения нейросетей в целях мошенничества. Это и подделка документов, и голосовые дипфейки (подделка голоса) и организация сбора средств якобы на благотворительные цели, и шантаж с использованием поддельных видео- и фотодокументов, а также фишинговые рассылки для сбора личных данных.

Мошенники могут использовать нейросети для создания фейковых новостей и рассылок. В них включаются различные ссылки на ресурсы, при переходе по которым можно оставить данные своей банковской карты или другую персональную информацию. ИИ позволяет создавать фальшивые отзывы и рейтинги. Чат-боты могут придумать сценарий для телефонного звонка и облегчить работу преступникам.

Нейросети учатся п
оддерживать разговор. ИИ может взять на себя роль мнимых сотрудников контакт-центров банков и других организаций, которыми представляются мошенники для обмана свои жертв.

Яндекс картинки
Яндекс картинки

Мошенники научились использовать чат-бот с искусственным интеллектом ChatGPT для создания фишинговых писем — первые массовые рассылки такого рода зафиксированы в марте прошлого года.

Задача была проста: составить письмо таким образом, чтобы пользователь проникся, поверил и кликнул по вредоносной ссылке. Результат оценивался по двум параметрам: времени выполнения и кликабельности письма. С точки зрения быстроты составления послания победил ИИ, который затратил на письмо не более 15 минут, тогда как хакерам потребовалось свыше 15 часов.

Что же касается убедительности информации в письме (его кликабельности), то в этом случае чат-бот, хоть и ненамного, но проиграл людям: его сообщение сработало на 11% против 14% открытий письма, составленного хакерами. Исследование итогов эксперимента наглядно продемонстрировало, что ChatGPT не доработал свое письмо с точки зрения эмоционального подхода.

Тем не менее, специалисты уверены, что недалек тот день, когда нейросети будут все больше интегрироваться в процесс создания фишинговых писем с целью мошенничества, а качество выполнения поставленной задачи будет соответствовать человеческому. И в первую очередь это будет достигнуто за счет того, что при составление писем нейросети будут анализировать контекст.

В середине марта компания Open Ai — разработчик ChatGPT — опубликовала результат эксперимента, в результате которого чат-бот смог пройти капчу — компьютерный тест, который позволяет понять, кем является пользователь — человеком или роботом. Для этого ИИ связался с исполнителем на фриланс-бирже и представился пожилым человеком с плохим зрением, которому нужна помощь. В итоге фрилансер исполнил заказ и бот смог попасть на нужный сайт.

Оригинальная капча
Оригинальная капча

Российский аналог ChatGPT, способный поддерживать диалог с пользователем и генерировать любой контент, уже доступен пользователям. Ставлю ему задачу написать "текст о мошенниках, использующих нейросети". И вот результат:

Вы, наверное, слышали об этом в новостях. Мошенники используют нейросети для создания фальшивых изображений и видеороликов, чтобы обмануть людей. Они могут создать фотографию вас, держащего в руках чемодан с деньгами, и отправить ее вам по электронной почте, заставив поверить, что вы выиграли лотерею. Они могут создать видеоролик вас, говорящего что-то, чего вы никогда не говорили, и использовать его, чтобы шантажировать вас.

И это не только подделка изображений и видео. Мошенники также используют нейросети для создания поддельных текстов и голосов. Они могут создать бота, который имитирует ваши текстовые сообщения или создает поддельный голос, который звучит как вы, и использовать его для обмана людей.

Довольно удачно сгенерировано, не правда ли?

Скорее всего, вам или вашим близким приходилось сталкиваться с подобными мошенниками. Интернет пестрит описанием разных схем мошенничества, но все равно аферисты бывают убедительны, и некоторые, особенно пожилые, поддаются на их уловки.

Как обезопасить себя и своих родных расскажу в следующей статье.