Человеческий фактор в ИБ эволюционировал от пассивного источника ошибок до активного объекта эксплуатации со стороны ИИ. Атаки стали гиперперсонализированными. Голосовой фишинг и дипфейк-атаки превратились в угрозу, обходящую даже обученных сотрудников.
Автор: Константин Саматов, член Правления Ассоциации руководителей служб информационной безопасности
Представьте себе ситуацию, которая еще вчера казалась фантастической: рядовой сотрудник, проверяя почту, получает идеальное, безупречное письмо от руководителя, требующее срочного действия. Текст, тон, даже фоновое изображение – все сгенерировано нейросетью, имитирующей стиль общения директора компании. В то же время финансовый директор получает срочный звонок: в видеоокне безупречный дипфейк генерального директора, который тревожным, но абсолютно убедительным голосом требует немедленно перевести средства, ссылаясь на форс-мажор. Сотрудники выполняют требуемое действие, и в результате организация сталкивается с финансовыми потерями и репутационными рисками, последствия которых будут проявляться месяцами или даже годами.
Сценарий, в котором человеческий фактор, усиленный ИИ, становится триггером утечки, – печальная реальность. По данным Positive Technologies [1], ключевым вектором более чем 50% успешных атак остается именно фишинг, при этом ИИ-технологии увеличивают его эффективность, делая неотличимым от реальной коммуникации. Человек остается слабейшим звеном в цепочке киберзащиты: отчеты показывают, что до 96% компаний по всему миру уязвимы из-за неосторожности, ошибок или несоблюдения сотрудниками протоколов и регламентов.
Процесс импортозамещения в период 2022–2025 гг. временно усилил риски, связанные с человеческим фактором, из-за сложности новых отечественных систем и недостаточного обучения персонала.
Как теперь защищаться?
Для эффективной защиты необходимо выделить две наиболее опасные угрозы, появившиеся благодаря генеративному ИИ.
Первая – дипфейки руководителей высшего звена. Атаки на указанных лиц являются самой разрушительной формой социальной инженерии, использующей ИИ для клонирования голоса и видео руководителей. Злоумышленники эксплуатируют два ключевых психологических триггера влияния: авторитетность и давление срочности.
Механизм атаки следующий: ИИ анализирует публичные выступления (видеоконференции) или даже корпоративные записи голоса руководителя, создавая его безупречный цифровой дубликат. Далее этот дипфейк используется для срочных команд, например:
- клонированный финансовый директор звонит в финансовый отдел с требованием немедленного перевода крупной суммы, ссылаясь на секретную сделку или аудиторскую проверку;
- дипфейк руководителя связывается с сотрудником, утверждая, что компанией срочно интересуются правоохранительные или контролирующие органы, и требует немедленно предоставить или удалить критические данные под предлогом проведения внутренней проверки и т.п.
В отличие от традиционного фишинга, дипфейки практически невозможно обнаружить на слух или глаз в условиях стресса.
Вторая угроза – теневой ИИ – несанкционированное использование сотрудниками внешних, публичных генеративных ИИ-сервисов, например чат-ботов, для выполнения рабочих задач. Это одна из самых серьезных угроз утечки на сегодняшний день, поскольку конфиденциальная информация вводится в сторонние облачные модели, которые могут использовать ее для обучения или каких-либо иных целей.
Сотрудник, желая сэкономить время, вводит в публичный чат-бот:
- черновик коммерческого предложения с секретными ценами;
- фрагмент исходного кода закрытого проекта;
- обезличенные, но содержащие чувствительные данные, отчеты;
- необезличенные файлы, содержащие коммерческую тайну или персональные данные и т.п.
Эффективная защита от угроз, связанных с человеческим фактором, в эпоху генеративного искусственного интеллекта требует сочетания организационных мер, технологических ограничений и управляемого применения ИИ-инструментов.
Как известно, защитные меры должны быть масштабируемыми и зависеть от ресурсов. Можно выделить три уровня внедрения защитных мер, которые могут обеспечить необходимую защиту от дипфейков и теневого ИИ.
Начальный уровень. Малый бизнес
Цель: предотвратить утечки данных, несанкционированное использование ИИ-сервисов и минимизировать риск атак через дипфейки.
Основные меры:
- Издать внутренний приказ о запрете использования любых, прежде всего зарубежных, публичных ИИ-сервисов (ChatGPT, Gemini, Claude, DeepSeek и т. д.) для обработки рабочих данных. Установить ответственность за нарушение и назначить сотрудника, контролирующего соблюдение запрета.
- Ввести обязательное правило двух каналов – любое срочное финансовое поручение или поручение связанное с предоставлением критичных данных (персональных данных, коммерческой тайны) должно быть подтверждено повторно по независимому каналу связи. Например, если распоряжение поступило по видео или телефону, то сотрудник обязан завершить разговор и перезвонить по известному внутреннему номеру.
- Использовать возможности встроенных межсетевых экранов и бесплатных DNS-фильтров для блокировки доменов популярных LLM.
- Утвердить краткую инструкцию об использовании ИИ в организации, где определено, что разрешено, а что нет.
Средний уровень. Средний бизнес
Цель: централизовать контроль над применением ИИ, исключить внедрение поддельных компонентов в цепочку поставок и повысить защищенность от дипфейков.
Основные меры:
- Систематизация ИИ-использования:
- создать реестр разрешенных ИИ-инструментов;
- ввести процедуру согласования новых сервисов (через форму заявки или утверждение ИТ-/ИБ-специалистом);
- ограничить доступ к неразрешенным сервисам через прокси-сервер или межсетевой экран. - Контроль утечек информации:
- установить недорогие решения для обнаружения попыток передачи файлов, содержащих коммерческие данные;
- блокировать отправку документов, содержащих ключевые слова вроде "ИНН", "коммерческая тайна", "договор". - Безопасность цепочки поставок ИИ и ПО:
- использовать только проверенные источники программ (официальные репозитории, цифровые подписи);
- запрещать установку сторонних ботов и плагинов ИИ без проверки. - Проводить обучение и тестирование сотрудников – короткие тренинги по распознаванию дипфейков и фишинга, демонстрация примеров поддельных (фишинговых) писем, голосовых сообщений и видеозвонков.
Продвинутый уровень. Крупный бизнес
Цель: обеспечить управляемое, прозрачное и безопасное использование ИИ, включая защиту от дипфейков, утечек и несанкционированных моделей.
Основные меры:
- Систематизация ИИ-использования:
- утвердить политику корпоративного управления ИИ, где определены роли, ответственность, требования к хранению данных и согласованию использования моделей;
- назначить ответственного за соответствие (AI Compliance Officer [2]) и проводить ежегодные внутренние аудиты использования ИИ. - Безопасность цепочки поставок:
- вести реестр моделей и компонентов ИИ, используемых в бизнес-процессах;
- проверять источники и целостность библиотек и обученных моделей;
- фиксировать версии и контролировать обновления, чтобы исключить внедрение вредоносных элементов. - Контроль и фильтрация генеративных данных:
- использовать инструменты для защиты от утечек контекста при работе внутренних ИИ-агентов;
- внедрить проверку входящих сообщений и медиафайлов на признаки дипфейков (через ИИ-детекторы или цифровые водяные знаки). - Анализ поведения сотрудников: применять поведенческие системы (User and Entity Behavior Analytics) для выявления аномалий (вход ночью, массовое копирование файлов, необычные действия в CRM).
В эпоху генеративного ИИ человеческий фактор становится не просто слабым звеном, а зеркалом новых технологических угроз. ИИ усиливает недостатки, присущие человеку, – усталость, доверчивость, склонность к ошибкам.
Ключ к успеху лежит в сбалансированной интеграции: не пытаться устранить человеческий фактор, а управлять им. Стратегии, рассмотренные в этой статье, направлены именно на достижение такого баланса, где технологии не заменяют человека, а помогают ему действовать осознанно, быстро и безопасно.
Независимо от масштаба бизнеса – будь то малое предприятие, средняя компания или крупная корпорация – безопасность начинается с осознанного управления рисками и формирования внутренней культуры ответственного обращения с ИИ.
Практическая устойчивость к ИИ-угрозам достигается не масштабом инвестиций, а зрелостью процессов: своевременным контролем, обучением и постоянной проверкой эффективности принятых мер.