Добавить в корзинуПозвонить
Найти в Дзене

Генеративный ИИ сделал фишинг главным оружием мошенников. Как бизнесу защитить себя?

Генеративный ИИ кардинально изменил фишинг: атаки стали массовыми, дешевыми и гораздо более убедительными, а человеческий фактор остается главным уязвимым звеном. Мошенники используют нейросети для создания персонализированных сообщений, дипфейков и автоматизированных сценариев социальной инженерии. В этих условиях бизнесу необходим комплексный подход к защите — от технологий до регулярного обучения сотрудников и формирования культуры кибербезопасности. Подробности — в материале IT-World. В 2023–2025 годах в киберпреступности произошел качественный скачок: если раньше злоумышленникам приходилось самим придумывать легенды, теперь искусственный интеллект автоматизировал этот процесс — он моментально генерирует тысячи убедительных сообщений, учитывая персональные особенности жертвы. Это привело к росту успешности фишинга, снижению стоимости атак и появлению новых форм социальной инженерии. По данным отчета Verizon DBIR 2025, примерно в 60% взломов задействован человеческий фактор. Руковод
Оглавление

Генеративный ИИ кардинально изменил фишинг: атаки стали массовыми, дешевыми и гораздо более убедительными, а человеческий фактор остается главным уязвимым звеном. Мошенники используют нейросети для создания персонализированных сообщений, дипфейков и автоматизированных сценариев социальной инженерии. В этих условиях бизнесу необходим комплексный подход к защите — от технологий до регулярного обучения сотрудников и формирования культуры кибербезопасности. Подробности — в материале IT-World.

В 2023–2025 годах в киберпреступности произошел качественный скачок: если раньше злоумышленникам приходилось самим придумывать легенды, теперь искусственный интеллект автоматизировал этот процесс — он моментально генерирует тысячи убедительных сообщений, учитывая персональные особенности жертвы. Это привело к росту успешности фишинга, снижению стоимости атак и появлению новых форм социальной инженерии. По данным отчета Verizon DBIR 2025, примерно в 60% взломов задействован человеческий фактор. Руководитель информационной безопасности ELMA Александр Яров рассказал, чего ждать от ИИ-атак в будущем и как бизнесу защитить себя.

Нейросети помогают кибермошенникам

Злоумышленники вооружились искусственным интеллектом, и теперь около 83% фишинговых писем генерируются именно такими инструментами. Интерес киберпреступников к генеративному ИИ легко объясняется множеством факторов. Ранее фишинговые письма можно было распознать, не прибегая к техническому анализу — их выдавали орфографические ошибки и неуклюжий стиль. Но современные системы научились писать грамотно и убедительно. Теперь фейковые послания выглядят естественно и даже могут быть адаптированы под корпоративный стиль или хорошо имитировать деловую переписку.

Тем не менее пока ИИ-тексты все еще не совершенны — внимательные сотрудники вполне могут отличить подделку, особенно если работают с ИИ-контентом или проходили специальное обучение.

Обзор российских решений для комплексной защиты бизнеса от киберугроз

Еще одно направление развития киберпреступности связано с тем, что ИИ-инструменты упрощают сбор данных о сотрудниках организаций и позволяют проводить точечные фишинговые атаки. Для этого анализируются соцсети сотрудников, пресс-релизы компаний, открытые вакансии, прошлые утечки и публичные документы.

В условиях растущей угрозы целенаправленных атак использование искусственного интеллекта повышает риски для компаний, ставших мишенью для злоумышленников. По данным внутреннего исследования компании Hoxhunt, за последние три года эффективность ИИ‑агентов в целевом фишинге кратно выросла относительно опытных red‑team команд, которые моделируют действия реальных злоумышленников. Если в 2023 году разрыв составлял 31% не в пользу ИИ, а в 2024‑м сократился до 10%, то в 2025‑м ИИ не просто догнал, но и превзошёл экспертов по кибербезопасности на 24%.

Теперь мошенники могут подделывать голоса руководителей. Уже известны случаи финансовых потерь из-за фальшивых телефонных разговоров, аудиосообщений в мессенджерах и даже видеозвонков с «генеральными директорами». Чтобы подделать голос, достаточно всего трех секунд записи и небольшого бюджета. Согласно статистике, чтобы создать копию голоса с точностью до 85%, потребуется пара тысяч рублей и 20 минут.

Социальная инженерия тоже получает новое дыхание благодаря ботам. Раньше операторы сами сидели и общались с жертвами — что было дорого и не слишком эффективно, поскольку один человек тратил внимание только на одну жертву. Теперь оператора можно заменить на ИИ-бота, который будет в реальном времени отвечать на вопросы и подбирать убедительный тон разговора в зависимости от реакции собеседника.

Один из относительно новых и опасных видов мошенничества — QR-фишинг. Злоумышленники используют QR-коды для перенаправления пользователей на поддельные сайты. Эти коды могут быть встроены в электронные письма, размещены в публичных местах или включены в рекламные материалы. Когда человек сканирует такой код, он попадает на сайт-ловушку, который может установить вредоносное программное обеспечение на его устройство или запросить конфиденциальную информацию.

Большие возможности при большом масштабировании

Опасность фишинга, основанного на искусственном интеллекте, значительно возросла, поскольку традиционные маркеры поддельного письма больше не работают. Однако главная опасность использования ИИ в фишинге заключается не столько в повышении сложности и эффективности атак, сколько в их легкой масштабируемости. Чем больше распространение фишинга, тем выше риск. Согласно отчету KnowBe4, количество фишинговых атак, успешно обходящих встроенные механизмы безопасности Microsoft и почтовые шлюзы, увеличилось на 47%.

Внутренняя информационная безопасность — обзор решений и практик для бизнеса

Ситуация напоминает времена «скрипт-кидди», когда даже школьники с помощью готовых скриптов могли взломать внутренние сети средних компаний, не обладая значительным опытом. По данным ЦБ РФ, к третьему кварталу 2025 года были зафиксированы 631 фишинговая атака и более 13 тысяч случаев социальной инженерии, что привело к потерям в размере более 8 миллиардов рублей по операциям без добровольного согласия. Возмещение составило лишь 5,1%.

Защита бизнеса от кибератак — в руках сотрудников

Противостоять современным кибермошенникам, вооруженным генеративным ИИ, с помощью традиционных методов защиты не получится. Но нужно понимать, что искусственный интеллект — это просто инструмент. Он увеличивает возможности как атакующих, так и тех, кто защищается, если его правильно использовать.

Технологии ИИ применяются для анализа входящих писем. Даже модель Claude 3.5 Sonnet, устаревшая к 2026 году, продемонстрировала точность распознавания вредоносных писем на уровне 90%, при этом обнаружив некоторые угрозы, которые пропустил эксперт.

Инструменты поведенческого анализа, такие как системы UEBA, анализ аномалий в пользовательских действиях и мониторинг невероятных сценариев начинают вызывать интерес, однако к их применению необходимо подходить с осторожностью, учитывая текущие ограничения и не ожидая абсолютной точности. На текущий момент сложных алгоритмов и проверенных решений в этой области недостаточно.

Остаются полезными и некоторые классические средства защиты от фишинга, например многофакторная аутентификация (MFA), настройка почтового сервера (DMARC, DKIM, SPF), проверка вложений в письмах и защита от подделывания адресов. При этом ни одна из этих мер не защищает от атак на 100%. Безусловно, MFA — важный элемент безопасности, но злоумышленники могут обойти ее, используя методы социальной инженерии (например, убедив сотрудника ввести проверочный код).

Самое уязвимое звено в цепочке безопасности — сотрудники компании. Бизнесу необходимо вкладывать ресурсы не только в инструменты киберзащиты, но и в обучение персонала. Их надо регулярно учить правилам цифровой гигиены и проводить тренировки по проверке контекста, анализу цифровых следов отправителя и развитию навыков критического мышления. Это необходимо для формирования в компании и в обществе культуры безопасности.

Бдительный сотрудник способен внести более значительный вклад в защиту данных, чем искусственный интеллект. Регулярное годовое обучение персонала уменьшает вероятность успешных атак на 86%, а краткосрочное — на 40%.

Чтобы минимизировать риск кибератак, также рекомендуется разработать корпоративную политику и регламенты, например процедуры противодействия дипфейк-мошенничеству. Это может быть обязательное двойное подтверждение важных операций, использование альтернативных каналов связи и фиксация распоряжений в корпоративных системах управления процессами (BPM-системах).

Кибермошенничество будущего и защита против атак

Подытожим: ключевым фактором защиты становится не столько использование технологий, сколько комплексный подход, включающий процессы, обучение и аналитику. В будущем можно ожидать появления автономных фишинговых ботов, использования в атаках реалистичных видеодипфейков, автоматического проникновения в сети после успешной фишинговой операции, а также усиления атак на цепочки поставок через методы социальной инженерии.

ИИ не создал новый тип фишинга, но сделал его более масштабируемым, доступным и убедительным. Компании, которые продолжают полагаться только на классические методы защиты и не адаптируют свои подходы к новым реалиям, становятся уязвимыми. Единственная эффективная стратегия — переход к модели zero trust, внедрению поведенческой аналитики и постоянного обучения сотрудников в условиях новых угроз.

Подробнее на it-world.ru