Найти в Дзене

Этот странный звонок или сообщение от сенатора, вероятно, является мошенничеством с искусственным интеллектом

Оглавление

Все более изощренные инструменты глубокой подделки делают мошенников еще более опасными.

Клоны ИИ устанавливают контакт, а затем пытаются обманом заставить жертву перейти по грязным ссылкам
Клоны ИИ устанавливают контакт, а затем пытаются обманом заставить жертву перейти по грязным ссылкам

Если вы недавно получили голосовое сообщение с необычного номера, в котором вас называют членом Конгресса, скорее всего, это мошенничество. На этой неделе отдел по борьбе с преступностью ФБР выпустил предупреждение о новой схеме, в которой злоумышленники используют текстовые сообщения и голосовые клоны, созданные искусственным интеллектом, чтобы выдавать себя за государственных служащих. Мошенники пытаются установить связь со своей жертвой и в конечном итоге убедить её перейти по вредоносной ссылке, которая крадёт важные учётные данные. Эта афера — лишь последняя в серии развивающихся атак, использующих убедительные технологии генеративного искусственного интеллекта для обмана людей.

«Если вы получили сообщение, якобы отправленное высокопоставленным чиновником США, не думайте, что оно подлинное», — говорится в предупреждении ФБР.

Как работает мошенничество

Представители правительства говорят, что мошенничество началось примерно в апреле этого года. Злоумышленники либо рассылают текстовые сообщения, либо используют технологию клонирования голоса с помощью ИИ, чтобы выдавать себя за государственных служащих. Многие из тех, кто стал жертвами этих атак, были чиновниками или их близкими знакомыми. В последние годы технологии ИИ значительно улучшились, и некоторые системы могут генерировать убедительные подделки, проанализировав всего несколько минут или даже секунд голосовых записей человека. Государственные служащие, многие из которых часто выступают с речами или заявлениями, особенно уязвимы для голосового клонирования.

Хотя в уведомлении ФБР мало подробностей, в нём говорится, что мошенники обычно используют личность предполагаемого государственного служащего, чтобы создать ощущение знакомства или срочности в общении с жертвой. После этого они часто просят жертву перейти по ссылке, чтобы продолжить разговор на другой платформе для обмена сообщениями. На самом деле эта ссылка — ловушка, предназначенная для кражи конфиденциальных данных, таких как имена пользователей и пароли. ФБР предупреждает, что этот тип атаки может быть использован и для нападения на других государственных служащих. Если мошенники получат доступ к контактам жертвы, они могут использовать эту информацию для обращения к другим должностным лицам. Украденные контактные данные могут быть впоследствии использованы для выдачи себя за других людей с целью кражи или перевода средств.

«Доступ к личным или официальным аккаунтам, которыми управляют официальные лица США, может быть использован для атаки на других правительственных чиновников, их партнёров и контакты с помощью полученной информации о доверенных лицах», — отмечает ФБР.

Мошенники прибегают к глубоким подделкам искусственного интеллекта

Всё более убедительные аудио- и видеоматериалы, созданные с помощью ИИ, делают фишинг более эффективным. В отчёте компании Zscaler, занимающейся кибербезопасностью, за 2024 год говорится, что количество попыток фишинга в 2023 году увеличилось на 58 процентов, что отчасти объясняется использованием дипфейков на основе ИИ. Хотя жертвами таких мошеннических схем может стать кто угодно, пожилые люди часто страдают непропорционально сильно. В 2023 году данные ФБР показали, что мошенники украли у пожилых людей 3,4 миллиарда долларов с помощью различных финансовых схем. ИИ, как отмечает агентство, усугубляет проблему, делая мошенничество более правдоподобным и обманывая людей, которые в противном случае могли бы распознать мошенничество.

Некоторые из этих атак могут быть шокирующе целенаправленными. За последние два года появилось множество сообщений о том, что злоумышленники используют технологию голосового клонирования, чтобы обманом заставить родителей поверить, что их ребёнка похитили. В состоянии паники жертвы переводят крупные суммы денег, а позже обнаруживают, что их близким ничего не угрожало. Голосовые клоны также используются в политике.

В прошлом году избиратели в Нью-Гэмпшире получили робозвонок с участием человека, похожего на бывшего президента Джо Байдена,который призывал их не голосовать на праймериз в штате. Голос “Байдена” на самом деле был сгенерирован искусственным интеллектом. Сообщается, что эта аудиозапись была создана политическим консультантом Стивом Крамером, который работал с тогдашним кандидатом в президенты от демократической партии Дином Филлипсом. Крамер был в конечном итоге оштрафован FCC на 6 миллионов долларов, и ему предъявлены уголовные обвинения за предполагаемое подавление избирателей.​​

ФБР призывает людей проявлять крайнюю осторожность, если они получают сообщения, якобы отправленные напрямую от государственного служащего. В таком случае людям следует попытаться самостоятельно проверить личность отправителя, позвонив по известному и надёжному номеру телефона, связанному с этим человеком. В предупреждении также рекомендуется проверять адреса электронной почты и URL-адреса на наличие опечаток или других несоответствий, которые могут указывать на попытку фишинга. В случае с дипфейками в уведомлении рекомендуется обращать внимание на неловкие паузы, необычную интонацию или другие странности, которые могут быть явными признаками голоса, сгенерированного искусственным интеллектом. Легче сказать, чем сделать. Самые современные инструменты могут создавать контент, который практически неотличим от оригинала для обычного человека.