🧠 Искусственный интеллект перестаёт быть только инструментом прогресса и всё активнее используется как часть арсенала киберпреступников. Эксперты прогнозируют: к 2026 году основная проблема будет не в новых типах атак, а в их скорости, масштабе и доступности для людей без технического бэкграунда.
Контекст
К 2026 году нейросети сделают кибератаки быстрее, дешевле и доступнее «непрофессионалам». ИИ уже помогает писать вредоносный код, собирать досье на жертв и обходить защиту, а значит компаниям придётся выстраивать защиту по тем же правилам — опираясь на ИИ, проактивную аналитику и регулярное обучение сотрудников.
От эксперимента к массовому инструменту атак
За последние пару лет искусственный интеллект стал массовым инструментом в бизнесе, маркетинге и образовании. Но те же самые технологии активно осваивают и киберпреступники. По оценкам специалистов, к 2026 году ландшафт киберугроз изменится прежде всего количественно: ИИ ускоряет проведение атак, автоматизирует рутину и резко снижает порог входа в киберпреступность.
Если раньше сложные операции требовали команды технически подготовленных людей, то теперь значительную часть работы готовы взять на себя нейросети — от генерации фишинговых писем до поиска уязвимостей и написания вредоносного кода.
Как злоумышленники уже используют нейросети
Эксперты отмечают несколько ключевых сценариев применения ИИ в киберпреступности уже сегодня:
– генерация фишинговых писем и фейковых страниц с естественным, «человеческим» языком;
– разработка вредоносных скриптов и программ;
– автоматизация технических этапов атак.
По словам Олега Скулкина (BIONE Threat), ИИ привлекателен для хакеров именно тем, что ускоряет подготовку атак и снижает входной порог. Владислав Тушканов («Лаборатория Касперского») добавляет: злоумышленники используют языковые модели для создания вредоносных скриптов и фишинговых страниц, а также для автоматизации типовых операций, которые раньше выполнялись вручную.
От таргетинга до психологии: зачем ИИ профили жертв
Отдельный риск связан со скоростью анализа данных. Нейросети умеют за считаные минуты обрабатывать массивы открытой информации и выдавать структурированный профиль человека.
Александра Швигилева («Код Безопасности») поясняет: если поручить ИИ составить портрет человека по его социальным сетям и другим открытым источникам, модель не только опишет общий профиль, но и выделит интересы, уязвимости, сильные и слабые стороны.
Это экономит злоумышленникам время: им не нужно неделями изучать потенциальную жертву — достаточно задать корректный запрос, чтобы получить готовые сценарии, как выйти на контакт и вызвать доверие.
Что изменится к 2026 году: deepfake, IoT и атаки на ИИ-агентов
К 2026 году эксперты ожидают расширения применения ИИ практически во всех элементах атак. Екатерина Едемская («Газинформсервис») прогнозирует усиление угроз, связанных с deepfake: реалистичные подделки голоса и видео смогут обманывать даже биометрические системы доступа к банковским счетам и внутренним сервисам компаний.
По её оценке, нейросети смогут:
– автоматически выявлять уязвимости в программном обеспечении и «умных» устройствах;
– выстраивать цепочки атак на критическую инфраструктуру;
– разрабатывать вредоносный код, адаптирующийся к антивирусам в реальном времени.
Одновременно с этим растёт число IoT-устройств и внедрение сетей 5G, что открывает новые точки входа в сети компаний. Автоматизация через ИИ делает возможными атаки, где один оператор управляет тысячами заражённых устройств. Отдельным направлением рисков становятся атаки на ИИ-агентов: взломанные или изначально «троянские» модели могут перехватывать конфиденциальные запросы пользователей и использовать их в дальнейших атаках.
Чёрный рынок ИИ-инструментов: подписка на вредоносные сервисы
Уже сейчас на нелегальных площадках формируется полноценная экосистема «тёмных» ИИ-инструментов. По данным Александры Сухнёвой (Лига цифровой экономики), существует преступный аналог популярных языковых моделей, доступный по подписке примерно за 15 тысяч рублей в месяц.
Такие сервисы сознательно не ограничивают запросы и помогают:
– разрабатывать вредоносные приложения;
– подбирать тексты мошеннических писем и сценарии обмана;
– улучшать маскировку кода под легитимные процессы.
На практике это означает, что техническая планка существенно снижается: чтобы подготовить атаку, достаточно умения формулировать запросы, а не глубоких знаний программирования и сетевой архитектуры.
Практика атак с использованием ИИ: от Werewolf до сценариев с Claude
По данным специалистов, киберпреступные группировки уже интегрировали ИИ в свои процессы. Группа Werewolf использует языковые модели для написания вредоносных программ на Python и C#.
Описаны и случаи, когда нейросети привлекались для ускорения атак на множество организаций. В одном из эпизодов злоумышленники использовали модель Claude, разбивая задачу на множество небольших фрагментов, которые по отдельности выглядели легитимно. Модель поэтапно выполняла эти инструкции, что в итоге помогло злоумышленникам собрать рабочий сценарий атаки быстрее, чем при ручной подготовке.
По словам Олега Скулкина, даже с учётом ошибок, которые приходилось исправлять вручную, суммарное время подготовки атаки сократилось именно за счёт использования ИИ.
Почему угрозы формально «старые», но риски — новые
Илья Поляков (Angara Security) отмечает, что помимо фишинговых кампаний и вредоносного кода, особую роль играют дипфейки — подделки голоса и видео для обмана сотрудников и биометрических систем. Нейросети позволяют создавать полиморфный вредоносный код, который постоянно меняется и усложняет работу классических антивирусов.
При этом Владислав Тушканов подчёркивает важный момент: ИИ сам по себе не создаёт принципиально новых классов угроз. Фишинг, вредоносные программы, мошеннические письма и до этого были в арсенале киберпреступников. Новизна в другом:
– объём и скорость атак растут;
– уменьшается зависимость от высокой квалификации исполнителя;
– расширяется круг людей, способных вступить в криминальную экосистему.
Поэтому ключевая задача — не искать «совершенно новые» угрозы, а адаптировать защиту под новые масштаб и динамику.
Роль пользователей и компаний: от цифровой грамотности до ИИ-защиты
По мнению Дарьи Лавровой (Positive Technologies), значительная часть ответственности за результат атак с использованием социальной инженерии и ИИ лежит на самих пользователях.
Фишинговые письма, сообщения, аудио- и видеозвонки с применением дипфейков, как правило, имеют общие маркеры:
– попытки вызвать сильные эмоции (страх, срочность, чувство вины);
– давление на скорость принятия решения;
– неожиданные запросы на конфиденциальную информацию или действия.
Компании должны регулярно обучать сотрудников этим признакам и параллельно усиливать техническую защиту: внедрять ИИ-системы, способные автоматически выявлять и предотвращать атаки, опираясь не только на известные сигнатуры, но и на поведенческие аномалии. Эффективность такого ИИ должна строиться на проверенных гипотезах и моделировании будущих угроз, а не только на реакции «по факту».
Зеркальная автоматизация: ИИ против ИИ и уроки для бизнеса
Автоматизация через ИИ становится симметричным процессом: если хакеры используют нейросети для масштабирования атак, защиты должны масштабироваться аналогично. Цифровая безопасность превращается из разовой настройки в непрерывный цикл:
– обучение сотрудников;
– обновление политик и систем;
– анализ новых сценариев угроз;
– адаптация средств защиты.
Похожий подход демонстрируют сервисы, работающие с данными и контентом. Так, Kineiro.ru в контент-маркетинге не ограничивается разовой генерацией постов: система анализирует реакцию аудитории, учитывает изменения алгоритмов площадок и корректирует стратегию так, чтобы бренд оставался заметным и релевантным.
Для кибербезопасности такая логика означает необходимость перехода от разовых мероприятий к постоянной, итеративной работе — с опорой на ИИ, аналитику и регулярное обучение.
Финальный вопрос: кто успеет адаптироваться первым?
Искусственный интеллект не изобрёл новые виды кибератак, но превратил хакерство из закрытой профессии в масштабируемую индустрию. В этой ситуации преимущество получает не тот, у кого на руках «самые мощные» технологии, а тот, кто быстрее внедряет их в защиту и успевает адаптировать процессы под меняющийся ландшафт угроз.
Насколько ваша компания готова к сценарию, в котором в 2026 году у киберпреступников будет такой же доступ к ИИ-инструментам, как у вас, — и не окажется ли, что они научились использовать их быстрее?