Добавить в корзинуПозвонить
Найти в Дзене
Kineiro

Когда ИИ становится оружием: как нейросети меняют правила киберпреступности

🧠 Искусственный интеллект перестаёт быть только инструментом прогресса и всё активнее используется как часть арсенала киберпреступников. Эксперты прогнозируют: к 2026 году основная проблема будет не в новых типах атак, а в их скорости, масштабе и доступности для людей без технического бэкграунда. К 2026 году нейросети сделают кибератаки быстрее, дешевле и доступнее «непрофессионалам». ИИ уже помогает писать вредоносный код, собирать досье на жертв и обходить защиту, а значит компаниям придётся выстраивать защиту по тем же правилам — опираясь на ИИ, проактивную аналитику и регулярное обучение сотрудников. За последние пару лет искусственный интеллект стал массовым инструментом в бизнесе, маркетинге и образовании. Но те же самые технологии активно осваивают и киберпреступники. По оценкам специалистов, к 2026 году ландшафт киберугроз изменится прежде всего количественно: ИИ ускоряет проведение атак, автоматизирует рутину и резко снижает порог входа в киберпреступность. Если раньше сложн
Оглавление

🧠 Искусственный интеллект перестаёт быть только инструментом прогресса и всё активнее используется как часть арсенала киберпреступников. Эксперты прогнозируют: к 2026 году основная проблема будет не в новых типах атак, а в их скорости, масштабе и доступности для людей без технического бэкграунда.

Контекст

К 2026 году нейросети сделают кибератаки быстрее, дешевле и доступнее «непрофессионалам». ИИ уже помогает писать вредоносный код, собирать досье на жертв и обходить защиту, а значит компаниям придётся выстраивать защиту по тем же правилам — опираясь на ИИ, проактивную аналитику и регулярное обучение сотрудников.

От эксперимента к массовому инструменту атак

За последние пару лет искусственный интеллект стал массовым инструментом в бизнесе, маркетинге и образовании. Но те же самые технологии активно осваивают и киберпреступники. По оценкам специалистов, к 2026 году ландшафт киберугроз изменится прежде всего количественно: ИИ ускоряет проведение атак, автоматизирует рутину и резко снижает порог входа в киберпреступность.

Если раньше сложные операции требовали команды технически подготовленных людей, то теперь значительную часть работы готовы взять на себя нейросети — от генерации фишинговых писем до поиска уязвимостей и написания вредоносного кода.

Как злоумышленники уже используют нейросети

Эксперты отмечают несколько ключевых сценариев применения ИИ в киберпреступности уже сегодня:

– генерация фишинговых писем и фейковых страниц с естественным, «человеческим» языком;
– разработка вредоносных скриптов и программ;
– автоматизация технических этапов атак.

По словам Олега Скулкина (BIONE Threat), ИИ привлекателен для хакеров именно тем, что ускоряет подготовку атак и снижает входной порог. Владислав Тушканов («Лаборатория Касперского») добавляет: злоумышленники используют языковые модели для создания вредоносных скриптов и фишинговых страниц, а также для автоматизации типовых операций, которые раньше выполнялись вручную.

От таргетинга до психологии: зачем ИИ профили жертв

Отдельный риск связан со скоростью анализа данных. Нейросети умеют за считаные минуты обрабатывать массивы открытой информации и выдавать структурированный профиль человека.

Александра Швигилева («Код Безопасности») поясняет: если поручить ИИ составить портрет человека по его социальным сетям и другим открытым источникам, модель не только опишет общий профиль, но и выделит интересы, уязвимости, сильные и слабые стороны.

Это экономит злоумышленникам время: им не нужно неделями изучать потенциальную жертву — достаточно задать корректный запрос, чтобы получить готовые сценарии, как выйти на контакт и вызвать доверие.

Что изменится к 2026 году: deepfake, IoT и атаки на ИИ-агентов

К 2026 году эксперты ожидают расширения применения ИИ практически во всех элементах атак. Екатерина Едемская («Газинформсервис») прогнозирует усиление угроз, связанных с deepfake: реалистичные подделки голоса и видео смогут обманывать даже биометрические системы доступа к банковским счетам и внутренним сервисам компаний.

По её оценке, нейросети смогут:

– автоматически выявлять уязвимости в программном обеспечении и «умных» устройствах;
– выстраивать цепочки атак на критическую инфраструктуру;
– разрабатывать вредоносный код, адаптирующийся к антивирусам в реальном времени.

Одновременно с этим растёт число IoT-устройств и внедрение сетей 5G, что открывает новые точки входа в сети компаний. Автоматизация через ИИ делает возможными атаки, где один оператор управляет тысячами заражённых устройств. Отдельным направлением рисков становятся атаки на ИИ-агентов: взломанные или изначально «троянские» модели могут перехватывать конфиденциальные запросы пользователей и использовать их в дальнейших атаках.

Чёрный рынок ИИ-инструментов: подписка на вредоносные сервисы

Уже сейчас на нелегальных площадках формируется полноценная экосистема «тёмных» ИИ-инструментов. По данным Александры Сухнёвой (Лига цифровой экономики), существует преступный аналог популярных языковых моделей, доступный по подписке примерно за 15 тысяч рублей в месяц.

Такие сервисы сознательно не ограничивают запросы и помогают:

– разрабатывать вредоносные приложения;
– подбирать тексты мошеннических писем и сценарии обмана;
– улучшать маскировку кода под легитимные процессы.

На практике это означает, что техническая планка существенно снижается: чтобы подготовить атаку, достаточно умения формулировать запросы, а не глубоких знаний программирования и сетевой архитектуры.

Практика атак с использованием ИИ: от Werewolf до сценариев с Claude

По данным специалистов, киберпреступные группировки уже интегрировали ИИ в свои процессы. Группа Werewolf использует языковые модели для написания вредоносных программ на Python и C#.

Описаны и случаи, когда нейросети привлекались для ускорения атак на множество организаций. В одном из эпизодов злоумышленники использовали модель Claude, разбивая задачу на множество небольших фрагментов, которые по отдельности выглядели легитимно. Модель поэтапно выполняла эти инструкции, что в итоге помогло злоумышленникам собрать рабочий сценарий атаки быстрее, чем при ручной подготовке.

По словам Олега Скулкина, даже с учётом ошибок, которые приходилось исправлять вручную, суммарное время подготовки атаки сократилось именно за счёт использования ИИ.

Почему угрозы формально «старые», но риски — новые

Илья Поляков (Angara Security) отмечает, что помимо фишинговых кампаний и вредоносного кода, особую роль играют дипфейки — подделки голоса и видео для обмана сотрудников и биометрических систем. Нейросети позволяют создавать полиморфный вредоносный код, который постоянно меняется и усложняет работу классических антивирусов.

При этом Владислав Тушканов подчёркивает важный момент: ИИ сам по себе не создаёт принципиально новых классов угроз. Фишинг, вредоносные программы, мошеннические письма и до этого были в арсенале киберпреступников. Новизна в другом:

– объём и скорость атак растут;
– уменьшается зависимость от высокой квалификации исполнителя;
– расширяется круг людей, способных вступить в криминальную экосистему.

Поэтому ключевая задача — не искать «совершенно новые» угрозы, а адаптировать защиту под новые масштаб и динамику.

Роль пользователей и компаний: от цифровой грамотности до ИИ-защиты

По мнению Дарьи Лавровой (Positive Technologies), значительная часть ответственности за результат атак с использованием социальной инженерии и ИИ лежит на самих пользователях.

Фишинговые письма, сообщения, аудио- и видеозвонки с применением дипфейков, как правило, имеют общие маркеры:

– попытки вызвать сильные эмоции (страх, срочность, чувство вины);
– давление на скорость принятия решения;
– неожиданные запросы на конфиденциальную информацию или действия.

Компании должны регулярно обучать сотрудников этим признакам и параллельно усиливать техническую защиту: внедрять ИИ-системы, способные автоматически выявлять и предотвращать атаки, опираясь не только на известные сигнатуры, но и на поведенческие аномалии. Эффективность такого ИИ должна строиться на проверенных гипотезах и моделировании будущих угроз, а не только на реакции «по факту».

Зеркальная автоматизация: ИИ против ИИ и уроки для бизнеса

Автоматизация через ИИ становится симметричным процессом: если хакеры используют нейросети для масштабирования атак, защиты должны масштабироваться аналогично. Цифровая безопасность превращается из разовой настройки в непрерывный цикл:

– обучение сотрудников;
– обновление политик и систем;
– анализ новых сценариев угроз;
– адаптация средств защиты.

Похожий подход демонстрируют сервисы, работающие с данными и контентом. Так, Kineiro.ru в контент-маркетинге не ограничивается разовой генерацией постов: система анализирует реакцию аудитории, учитывает изменения алгоритмов площадок и корректирует стратегию так, чтобы бренд оставался заметным и релевантным.

Для кибербезопасности такая логика означает необходимость перехода от разовых мероприятий к постоянной, итеративной работе — с опорой на ИИ, аналитику и регулярное обучение.

Финальный вопрос: кто успеет адаптироваться первым?

Искусственный интеллект не изобрёл новые виды кибератак, но превратил хакерство из закрытой профессии в масштабируемую индустрию. В этой ситуации преимущество получает не тот, у кого на руках «самые мощные» технологии, а тот, кто быстрее внедряет их в защиту и успевает адаптировать процессы под меняющийся ландшафт угроз.

Насколько ваша компания готова к сценарию, в котором в 2026 году у киберпреступников будет такой же доступ к ИИ-инструментам, как у вас, — и не окажется ли, что они научились использовать их быстрее?