Искусственный интеллект (ИИ, англ. Artificial Intelligence — AI) стремительно меняет не только экономику и медицину, но и кибербезопасность. К сожалению, далеко не всегда в положительном ключе. Если раньше хакеры отправляли криво переведённые письма от «королевы Нигерии», то сегодня на поле боя выходят языковые модели (LLM — Large Language Models), deepfake-алгоритмы и автоматизированные ИИ-инструменты атак.
ИИ, по словам аналитика Кайла Уилбера (Kyle Wilbur) из Forrester Research, — это как ядерный реактор: может освещать города, а может и устроить катастрофу. Он сравнивает его с ядерной технологией не только из-за мощности, но и из-за амбивалентности: малейшая ошибка или злоупотребление может привести к масштабной катастрофе, при этом технология в умелых руках — благо. Даже при всём этом, ИИ остаётся алгоритмом, а не разумом. Это стоит помнить, чтобы не впадать в панику — но и не впадать в беспечность.
Итог: ИИ не «думает», но в умелых (и неумелых) руках становится оружием.
ИИ-угрозы требуют системного ответа: технологий, процессов, обучения и готовности к имитационным атакам. Главное — не поддаваться иллюзии «невидимости» защиты. Если угроза стала умнее — защита должна эволюционировать.
Теперь, когда мы понимаем двойственную природу ИИ, разберем конкретные векторы атак, которые используют злоумышленники.
1. Новые векторы атак: ИИ на службе у злоумышленников
Под новыми векторами атак в данном контексте мы понимаем эволюцию старых методов, усиленных ИИ: они стали персонализированнее, масштабируемее и автономнее. Отличие — в точности, скорости и способности ИИ адаптироваться под контекст жертвы.
1.1. Фишинг нового поколения с помощью LLM
Фишинг всегда был одной из самых эффективных техник социальной инженерии. Однако теперь мошенники вооружены не только орфографическим словарём, но и ChatGPT, Claude, Gemini и другими LLM, которые позволяют создавать:
- Фальшивые письма и тексты, неотличимые от корпоративной переписки.
- Персонализированные обращения по открытым данным (OSINT) и ссылками на реальных коллег.
- Масштабируемые атаки: тысячи вариантов под конкретных людей.
Исследование SlashNext за 2023 год показало, что ChatGPT используется уже в 60% фишинговых атак для генерации персонализированных писем, что увеличило их эффективность на 40% (SlashNext State of Phishing Report, 2023) и с большой вероятностью эти цифры с годами будут только расти.
Эти атаки отличаются от старого фишинга тем, что ИИ теперь может генерировать очень правдоподобные и персонализированные сообщения. Ранее фишинговые письма часто было легко распознать из-за грамматических ошибок и общего текста. Сегодня же письма выглядят почти как настоящие, что значительно повышает риск успешных атак.
Исследования и статистика
- BlackBerry Cybersecurity Threat Report (2024): 51% фишинговых писем в США в 2023 году были созданы или доработаны LLM.
- SlashNext State of Phishing Report (2023): рост LLM-усиленных фишинговых атак составил 1265% за 2023 год.
В России
- Positive Technologies (2023–2024): 45% киберинцидентов — социальная инженерия, включая фишинг с ИИ. Если верить их же отчету «Киберугрозы Q1 2024» от апреля, то в 2024 году 30% атак на российские компании использовали LLM для создания фейковых вакансий с вредоносными вложениями.
- Group-IB (2024): рост фишинга на банки — +68%. Всё чаще письма создаются с помощью ChatGPT.
- Лаборатория Касперского (2024): каждое пятое фишинговое письмо в Рунете — результат работы LLM.
Примеры атак
- Фейковые письма от Сбербанка и Госуслуг (январь 2024 - февраль 2024)
Мошенники отправляют жертвам письма или СМС, в которых сообщают о подозрительной попытке входа на портал, и просят позвонить по указанному номеру. Клиент, уверенный, что говорит со службой безопасности портала, выполняет их инструкции. - Заявки в HR-отделы от кандидатов с вредоносными вложениями (март 2024)
Кибератаки на сотрудников HR-департаментов участились, их стало на 38% больше. Фишинг — самый распространенный способ атак на специалистов кадровых служб. Хакеры отправляют поддельные резюме с вредоносными вложениями. - Голосовые deepfake-звонки от "руководителей" (2023)
Мошенники связываются в мессенджерах с сотрудниками компании от лица топ-менеджера, используя его фото и другую информацию из открытых источников, и пытаются выманить чувствительную информацию о компании или деньги.
Вывод: Сложность атак растёт, а их массовость создаёт эффект «информационного тумана». Эти новые методы фишинга являются значительным шагом вперёд в сравнении с традиционными методами социальной инженерии.
Фишинг — не единственная угроза. Еще более опасными становятся deepfake-атаки, которые эксплуатируют наше доверие к визуальной и аудио информации.
1.2. Deepfake и подлог документов
Deepfake — синтез изображений, видео и голоса на основе ИИ. Этот метод особенно опасен тем, что эксплуатирует зрительное и слуховое доверие. И уже на 2023 год, согласно отчету Group-IB, количество deepfake-атак на бизнес выросло на 300%, причем 80% из них использовали поддельные голосовые записи (Group-IB, отчет «High-Tech Crime Trends 2023», декабрь 2023).
В отличие от традиционных атак с фальшивыми документами, где просто использовались подделки, deepfake позволяет создать совершенно убедительные видео- и аудиофайлы, которые невозможно отличить от настоящих. Эти фальшивые записи можно использовать для манипулирования людьми и компаниями, заставляя их выполнять нежелательные действия, например, переводить деньги или раскрывать конфиденциальную информацию.
Примеры в России
- Подделка голоса CEO. Сотрудник перевёл 35 млн рублей (источник: Group-IB, июнь 2023).
- ИИ-звонки от имени «Сбербанка» — 500+ случаев за квартал (январь-март 2024).
- Deepfake в Zoom от имени топ-менеджера ВТБ. Перевод предотвратили (октябрь 2023).
- Голосовые атаки на клиентов Альфа-Банка. Клонирование голосов сотрудников (февраль 2024).
Факт: По данным Лаборатории Касперского на 2024 год 25% deepfake-атак в России использовали открытые данные из соцсетей для создания более убедительных подделок (Лаборатория Касперского, отчет «ИИ и киберпреступность», март 2024).
Подделка платёжек и доверенностей
ИИ способен создавать:
- Реалистичные сканы доверенностей и заявлений на перевод.
- Поддельные PDF-счета, визуально неотличимые от оригиналов.
- Подмену реквизитов в вложениях без изменения метаданных.
Реальные кейсы (2024): в крупной логистической компании сотрудник получил «срочную» платёжку от лица CFO — deepfake-голос и подделка счета на 12 млн. Обнаружили только после аудита.
Таким образом Deepfake + подлог создают новый уровень социальной инженерии. И если раньше кибератаки требовали значительных усилий, то сегодня ИИ автоматизирует весь процесс — от сбора данных до эксплуатации уязвимостей.
1.3. Автоматизация атак: ИИ берёт работу на себя
ИИ способен автоматизировать весь цикл кибератаки:
- Сбор данных (OSINT): ИИ анализирует открытые данные, соцсети, утечки, форумы, сайты. Часто в этот анализ попадают украденные базы данных (от мелких сайтов, до медицинских учреждений и ваших анализов).
- Создание эксплойтов: Генерация кода на Python, Bash или PowerShell — прямо в чат-боте.
- Фишинговые рассылки: Подделка и персонализация писем, звонков, управление чат-ботами — всё автоматизировано.
- Постэксплуатация: Скрипты с ИИ управляют шифровальщиками, что позволяет воровать данные, обходя защиту.
Ранее злоумышленники вручную разрабатывали и запускали атаки, что занимало много времени и ресурсов. А уже в 2024 году ИИ позволял автоматизировать весь процесс, делая атаки гораздо быстрее и масштабнее. Что подтверждается исследованием Positive Technologies (отчёт «Киберугрозы для бизнеса», февраль 2024). По их данным 40% атак на средний бизнес в РФ использовали ИИ для автоматического подбора уязвимостей в корпоративных системах.
Российские кейсы
- Positive Technologies (2024): Рост использования ИИ при атаке на средний бизнес в РФ — злоумышленники создают индивидуальные "воронки обмана".
- InfoWatch (2024): Злоумышленники использовали ИИ-бота, чтобы в автоматическом режиме убеждать сотрудников ввести логины от CRM в фейковую систему "для проверки".
2. Почему эти атаки проходят?
Всё просто – люди ошибаются, несмотря на знания. Почему?
- Эффект правдоподобия: deepfake-звонок звучит, как директор.
- Эмоциональное давление: «Срочно переведи деньги!».
- Усталость: сотрудники перегружены и пропускают детали.
- Иллюзия защищённости: «У нас же есть антивирус».
Факты:
- По данным SANS Institute (2023), 95% атак — из-за человеческого фактора.
- Исследование Proofpoint (2023) показало, что 70% сотрудников кликают на фишинговые ссылки, если письмо выглядит авторитетно (Proofpoint, отчет «Состояние фишинга», 2023). На 2024 год этот процент не сильно изменился.
Хорошо, зная причины успешности атак, перейдем к методам защиты, которые позволяют минимизировать риски.
3. Как защищаться от ИИ-угроз
Для эффективной защиты от атак с применением ИИ необходимо использовать новые технологии и методы, направленные на выявление аномальной активности и защиту данных.
3.1. Технологии защиты
- Использование UEBA (User and Entity Behavior Analytics) и NDR (Network Detection and Response): Эти технологии позволяют выявлять аномалии в поведении пользователей и сетевой активности, что критически важно для обнаружения атак с применением ИИ. Они помогают распознавать необычные паттерны, которые могут быть признаком фишинга, использования deepfake или других атак.
- Подключение антифрод и ИИ-аналитика трафика: Современные антифрод-системы помогают обнаруживать мошеннические транзакции, а ИИ-аналитика позволяет анализировать трафик в реальном времени. Это позволяет обнаруживать фишинг и вредоносные действия, сгенерированные ИИ.
- ИИ-детекторы deepfake: Алгоритмы, анализирующие артефакты в видео и аудио. По данным MITRE на 2023 год (исследование по детекции deepfake), системы детекции deepfake (например, Microsoft Video Authenticator) способны были выявлять до 90% подделок по микроартефактам в видео. А уже в 2024 году точность распознавания видеодипфейков варьируется от 73,5% до 97,6% в зависимости от сложности подделки. Лучше всех себя показала российская система от VisionLabs. Она способна была распознавать все основные типы дипфейков: замену лица (Face Swap),
перенос выражения лица (Face Reenactment), синхронизацию губ (Lip-Sync), генерацию лиц (Face Synthesis), работает даже с видео низкого качества.
3.2. Обучение и тренировки
- Симуляции фишинга: Регулярные проверки сотрудников и их обучение на их же примерах.
- Red Team с ИИ: Тестовые атаки с использованием deepfake и автоматизированных сценариев. Поможет сотрудникам отличать подделки от настоящего.
Замечу: Исследование KnowBe4 показало, что регулярные тренировки снижают вероятность успешного фишинга на 60% (Отчет «Эффективность обучения кибербезопасности», 2023).
Указанный выше софт является хорошим, но в России он сейчас не доступен и поэтому в условиях импортозамещения российские компании предлагают собственные решения для противодействия ИИ-угрозам.
4. Российская перспектива: импортозамещение и практика
Российские технологии в области кибербезопасности становятся всё более конкурентоспособными на фоне роста угроз с применением ИИ. Ключевые решения, ориентированные на защиту от ИИ-угроз:
- SIEM и аналитика: MaxPatrol SIEM от Positive Technologies — российская альтернатива западным решениям для мониторинга безопасности. Это система для обработки и анализа событий безопасности, а также для формирования отчётов о угрозах и инцидентах.
- EDR/XDR: Решения от «Лаборатории Касперского» и СТАФ предоставляют защиту от угроз, используя поведенческую аналитику и мониторинг подозрительных действий в реальном времени.
- VPN и межсетевые экраны: Решения от Континент, DallasLock и Код Безопасности помогают обеспечивать безопасность каналов связи и блокировать нежелательные соединения.
- Операционные системы: Astra Linux и РЕД ОС — это российские операционные системы, обеспечивающие безопасность на уровне работы с данными и взаимодействия в сети.
Российские решения уже сегодня защищают от известных угроз и они же в будущем будут защищать, но ИИ не стоит на месте. Пока компании внедряют SIEM и EDR, злоумышленники готовят атаки нового поколения — на голосовых помощников, промышленные системы и даже через «отравление» данных. Какие вызовы ждут нас в ближайшие 2–3 года и как к ним подготовиться?
5. Будущие тренды ИИ-атак: куда движется угроза
ИИ развивается экспоненциально, и злоумышленники не отстают. Уже сегодня можно обозначить несколько векторов, которые в ближайшие 1–3 года могут стать основными направлениями атак:
5.1. Атаки на голосовых помощников и "умные" устройства
С распространением голосовых ассистентов (Алиса, Siri, Google Assistant, Marusya) открываются новые векторы атак:
- Генерация аудиозапросов, имитирующих голос владельца устройства — для активации функций, совершающих действия от имени пользователя (например, отправка сообщений, транзакции, разблокировка IoT-устройств).
- Злоупотребление голосовыми интерфейсами в офисах: злоумышленник может использовать записанный или синтезированный голос для управления "умными" конференц-системами или блоками автоматизации.
- Атаки через акустические сигналы вне слышимого диапазона (так называемые "невидимые команды").
Пример: В 2024 году исследователи МГУ и «Сколтеха» показали возможность атаки на "умную колонку" через ультразвук, управляя покупками и действиями в "умном доме".
5.2. Атаки через IoT и промышленный ИИ
ИИ встраивается в "умные" системы: логистику, энергетику, производство. ИИ-атаки на эти системы могут привести к реальному физическому ущербу:
- ИИ может быть использован для подмены телеметрии и генерации ложных сигналов в системах SCADA.
- Заражение моделей машинного обучения на заводах "на входе": если ИИ обучен на искажённых данных — он ошибается при управлении станками и процессами.
- Злоумышленники могут использовать генеративный ИИ для создания "вредных" обновлений программного обеспечения или firmware на устройствах.
Пример: В 2025 году возможно появление первого в мире кейса «ИИ-направленной аварии» — если вредоносный ИИ получит доступ к цифровому двойнику производства и внесёт незаметные изменения.
5.3. Атаки через LLM-агентов и автономные ИИ-скрипты
Появление LLM-агентов (автономных ИИ, способных планировать и выполнять задачи) открывает новые возможности для атак:
- ИИ-агенты могут самостоятельно искать уязвимости в коде и отправлять отчёты злоумышленникам.
- Они способны вести переговоры с поддержкой, притворяясь клиентом, и получать информацию.
- Интеграция с API позволяет ИИ в реальном времени управлять ботнетами, формировать фишинговые рассылки и атаковать целевые сервисы.
Многие компании и специалисты уже сейчас используют AutoGPT и AgentGPT в рамках пентестов, а в тени — и для атак.
5.4. Атаки на ИИ через "отравление" обучающих данных (data poisoning)
ИИ-системы, особенно в компаниях, обучаются на открытых или частично открытых данных. Если злоумышленник заранее "заражает" такие данные:
- Модель начинает ошибаться — например, пропускать вредоносные файлы или «принимать» поддельные документы.
- Возможна подмена предпочтений: в маркетинге, рекомендациях, фильтрации.
По прогнозу Gartner (2024), к 2026 году до 30% атак на ИИ будут строиться именно по модели "отравления данных".
5.5. Использование синтетических идентичностей
Генеративные модели позволяют создавать абсолютно новые личности: фейковые сотрудники, фейковые клиенты, даже фейковые чиновники. Эти «люди» могут:
- Получать доступ к сервисам.
- Формировать доверительные отношения с организациями.
- Обманом подписывать документы или участвовать в голосованиях/опросах.
В 2024 году в РФ был выявлен случай, когда целая сеть «сотрудников» в LinkedIn оказалась ИИ-сгенерированной. Их использовали для сбора информации у потенциальных клиентов.
На данный момент можно точно сказать, что угрозы ИИ станут ещё более незаметными, масштабируемыми и автономными. Уже в 2025–2026 годах ключевыми задачами станет не только защита от атак, но и верификация подлинности цифровых личностей, данных и действий.
Заключение
Угрозы, исходящие от ИИ, становятся всё более разнообразными и сложными. Атаки, такие как фишинг, deepfake и автоматизация атак через OSINT, становятся основными методами, используемыми злоумышленниками. Однако, в отличие от прежних видов угроз, эти атаки:
- Не требуют значительных ресурсов со стороны атакующих.
- Персонализированы и массовы.
- Вывели на новый уровень социальную инженерию благодаря Deepfake и голосовым подделкам.
Для борьбы с этими угрозами важно использовать комплексный подход, который включает в себя использование передовых технологий для обнаружения аномалий и обучения сотрудников, а также регулярное проведение имитационных атак для повышения осведомлённости.
Угрозы ближайшего будущего — атаки на IoT, LLM-агенты и синтетические идентичности — потребуют не только технологий, но и новых стандартов проверки данных. Компаниям уже сейчас стоит:
- Тестировать уязвимости голосовых интерфейсов и промышленных ИИ.
- Внедрять системы верификации цифровых личностей.
- Мониторить «отравление» данных в собственных ML-моделях.
Так же необходимо помнить, что ИИ — это инструмент, который в умелых руках становится мощным оружием. Поэтому защита должна адаптироваться и эволюционировать в ответ на новые вызовы.
P.S.: Главное — быть готовыми к изменениям и не оставаться в прошлом, используя старые методы защиты против новых угроз.
С полным списком статей, чек-листов и книгой можно ознакомиться на моем сайте - DIKIY.PRO