⚠️Мошенничество с ИИ: Как защититься от новых угроз? Увы, ИИ не только помогает людям и бизнесам, но и открывает новые возможности для мошенников. Расскажу про новые виды мошенничества, о которых хорошо бы знать каждому. Представьте, что вы получаете сообщение от близкого друга с просьбой срочно перевести деньги. Вы слышите его голос, узнаёте интонации, но... это не он. Мошенники с помощью искусственного интеллекта способны взламывать аккаунты и подделывать голос, чтобы обмануть вас! Уже тысячи людей стали жертвами таких схем. ИИ открывает мошенникам беспрецедентные возможности для обмана. С развитием технологий искусственного интеллекта (ИИ) мошенники находят новые способы обмана. Вот несколько распространённых видов мошенничества с использованием ИИ, с которыми можно столкнуться уже сегодня: 1. Взлом аккаунтов и подделка голоса Мошенники могут взломать аккаунт в мессенджере (например, Telegram) и с помощью ИИ-системы подделать голос владельца. Затем они отправляют друзьям и родственникам просьбы перевести деньги, якобы на неотложные нужды, например, займ на короткий срок. Подобные сообщения могут звучать правдоподобно, так как голос и манера речи владельца легко подделываются. 2. Фишинг и поддельные звонки ИИ помогает создавать более реалистичные фишинговые схемы: письма или звонки, имитирующие известных людей или компании. Мошенники могут автоматически генерировать убедительные тексты и копии сайтов, которые выглядят как оригинальные, или даже сделать звонок с поддельным голосом руководителя компании, требуя срочного перевода средств. 3. Поддельные видеозаписи (deepfake) Используя технологии deepfake, мошенники могут создать поддельные видео с изображением известных людей или даже близких вам лиц. Такие видео могут использоваться для того, чтобы ввести вас в заблуждение, заставив поверить в ложные заявления или просьбы. 4. Мошенничество с инвестициями С помощью ИИ-мошенников можно создать фальшивые инвестиционные предложения или сайты, которые имитируют легальные инвестиционные платформы. Такие системы автоматически подстраиваются под интересы потенциальных жертв, предлагая "выгодные" условия вложений. 5. Автоматизированные атаки и взломы ИИ также может использоваться для автоматизации взломов аккаунтов, подборов паролей или атак на личные данные. В таких атаках ИИ анализирует слабые места системы и запускает массовые фишинговые рассылки. 6. Создание поддельных отзывов и репутаций Мошенники могут использовать ИИ для автоматической генерации положительных или отрицательных отзывов о компании, товаре или человеке, влияя на общественное мнение. Это может создать ложную репутацию, что приводит к принятию неверных решений при покупках или заключении сделок. 7. Фальшивые предложения о трудоустройстве ИИ может использоваться для создания поддельных вакансий и предложений о работе. Мошенники создают реалистичные сайты и объявления, заманивая жертв для передачи личных данных или денег под предлогом оформления трудоустройства. Чтобы избежать мошенничества, следуйте этим рекомендациям: - Всегда проверяйте информацию из нескольких источников, особенно если она касается денег. - Никогда не переводите деньги по просьбе, полученной через мессенджер, пока не свяжетесь с человеком напрямую. - Устанавливайте двухфакторную аутентификацию для защиты аккаунтов. - Будьте внимательны к неожиданным сообщениям и звонкам, даже если они кажутся знакомыми. Технологии развиваются, и с ними — методы мошенников. Будьте бдительны, друзья. #ии #мощенничесвто
5 месяцев назад