Финансовые схемы с применением искусственного интеллекта (ИИ) стали приносить злоумышленникам в 4,5 раза больше прибыли, чем атаки без подобных инструментов, заявили в Интерполе. В организации отметили, что генеративные модели резко повысили качество обмана, а также упростили масштабирование преступных операций. Подробности о том, как ИИ меняет экономику мошенников, чем это опасно и как противостоять подобным угрозам, читайте в материале «Известий».
Что рассказали в Интерполе про ИИ на службе мошенников
О том, что финансовые схемы с применением искусственного интеллекта стали приносить злоумышленникам в 4,5 раза больше прибыли, чем атаки без подобных инструментов, говорится в свежем отчете Интерпола. В организации отметили, что генеративные модели резко повысили качество обмана, а также упростили масштабирование преступных операций.
При этом, согласно ее данным, чаще всего злоумышленники используют нейросети для доработки сообщений, писем и других приманок для жертв. Такие сервисы убирают языковые ошибки, сглаживают неестественные формулировки и помогают точнее копировать стиль известных компаний. Подобная обработка заметно повышает шансы на успех в атаках, где мошенник выдает себя за бренд, сотрудника банка или другого доверенного отправителя.
Глобальные потери от финансового мошенничества в 2025 году оцениваются примерно в $442 млрд. Согласно предварительным прогнозам, в ближайшие 3–5 лет эта сумма будет лишь расти — и именно искусственный интеллект может стать одним из главных факторов этого. Генеральный секретарь Интерпола Вальдеси Уркиза подчеркнул, что цена финансовых преступлений измеряется не только деньгами: под удар попадают сбережения, человеческое достоинство, а в самых тяжелых случаях и жизнь.
Как нейросети влияют на прибыль от мошеннических схем
Сегодня искусственный интеллект может использоваться почти на каждом этапе мошенничества — от поиска и профилирования жертвы до написания сообщений, подмены голоса и сопровождения диалога, говорит в беседе с «Известиями» эксперт по социотехническому тестированию Angara Security Яков Филевский.
— Нейросети помогают мошенникам создавать «контент» — различные публикации и сообщения для взаимодействия с жертвой, а также всё активнее применяются для сканирования технических уязвимостей, — рассказывает специалист. — ИИ перестал быть инструментом только для профи: благодаря повышению доступности сервисов и их адаптации под рядового потребителя им пользуются и полупрофессиональные группы.
Повышение прибыльности преступных компаний с применением ИИ обусловлено двумя ключевыми факторами: увеличением масштаба и географии схем, а также возможностями в подстраивании атаки под каждую отдельную жертву, отмечает аналитик исследовательской группы Positive Technologies Роман Резников. Автоматизированный сбор информации о жертве и генерация поддельного контента помогают киберпреступникам масштабировать фишинговые компании и проводить атаки на других языках, а следовательно, наращивать число потенциальных жертв.
Выросшее качество генерации текста, по отдельным исследованиям, даже более убедительного, чем написанного людьми, приводит к повышению числа обманутых жертв в мошеннических кампаниях, а значит и к росту прибыли, указывает Роман Резников. При этом, кроме увеличения масштабов атаки с помощью ИИ, киберпреступники могут автоматически подстраивать обманные шаблоны под конкретную жертву, благодаря чему повышают вероятность успеха каждой отдельной атаки.
— Дополнительные возможности по персонализации атаки предоставляют дипфейки, — сообщает специалист. — Они используются как в атаках на частных лиц, так и на компании. В обоих случаях подделка голоса и видео используются для повышения доверия жертвы к сообщаемой информации за счет маскировки под личность близкого, друга или коллеги.
Какие техники с ИИ наиболее прибыльны для аферистов
Сегодня наибольшую отдачу мошенникам приносят три ключевых направления с применением нейросетей, утверждает начальник отдела по информационной безопасности компании «Код Безопасности» Алексей Коробченко. Первое из них — синтез голоса и создание дипфейков, которые позволяют мошенникам выдавать себя за руководителей компаний, родственников или друзей жертв. Такие атаки сложно распознать на слух.
— Второе направление — генерация реалистичного фишингового контента, — рассказывает собеседник «Известий». — ИИ пишет письма от имени госорганов и банков без единой ошибки и в считаные минуты создает сайты-двойники, которые невозможно отличить от оригиналов.
Третье из ключевых направлений — это автоматизированный сбор и анализ данных о жертвах из открытых источников, что позволяет делать атаки персонализированными и максимально убедительными, дополняет Алексей Коробченко. Сверхприбыли, по словам эксперта, помогают мошенникам вкладываться в развитие и нанимать лучших разработчиков, что ведет к усложнению угроз.
Кроме того, нарастает вторичный ущерб для экономики, ведь бизнес вынужден закладывать растущие расходы на защиту в стоимость товаров и услуг. Но главная опасность — это подрыв доверия к цифровым каналам: если люди перестают верить своим глазам и ушам, рушится сама основа цифрового взаимодействия, подчеркивает специалист.
— Высокая маржинальность преступлений с ИИ создает замкнутый круг: чем больше прибыль, тем больше инвестиций в развитие новых, еще более изощренных атак, это приводит к профессиональной эволюции киберпреступности, — говорит руководитель продукта Solar webProxy (ГК «Солар») Анастасия Хвещеник. — Для общества это может обернуться ростом не только финансовых потерь, но и социального напряжения — люди перестают доверять даже визуальной и аудиоинформации.
Как бороться с прибыльными схемами мошенников на основе ИИ
В своем отчете от 16 марта Интерпол для противостояния киберпреступникам призвал к созданию жесткой международной кооперации между правоохранительными органами и частным сектором, а также использованию механизмов экстренной остановки трансакций (например, I-GRIP), рассказывает ведущий инженер-аналитик аналитического центра кибербезопасности компании «Газинформсервис» Максим Федосенко.
— Однако на данный момент эти технологии пока совершенствуются, поэтому в текущих реалиях первым и главным рубежом обороны остается соблюдение цифровой гигиены и следование концепции «нулевого доверия», — подчеркивает собеседник «Известий».
Для противодействия злоумышленникам необходим комплексный подход — например, внедрение инструментов для детекции ИИ-контента и усиленной аутентификации, дополняет руководитель департамента киберразведки компании «Бастион» Константин Ларин. Бизнесу, по словам эксперта, стоит развивать аналитику поведения и мониторинг аномалий, а государству — усиливать регулирование. При этом важно уделять достаточно внимания и обучению пользователей, поскольку человеческий фактор остается ключевой точкой входа для киберпреступников.
В свою очередь, эксперты «МТС Защитник» напоминают, что основной способ обезопасить себя от мошеннических схем с применением ИИ — бдительность в сочетании с технологиями защиты от операторов связи. По возможности стоит минимизировать цифровой след и не выкладывать большое количество личной информации в открытый доступ. При получении подозрительного звонка или видеосообщения даже от знакомого контакта необходимо прервать разговор и перезвонить человеку для дополнительной проверки.