Найти в Дзене

Человеческий фактор в эпоху ИИ: стратегии защиты данных организации

Человеческий фактор в ИБ эволюционировал от пассивного источника ошибок до активного объекта эксплуатации со стороны ИИ. Атаки стали гиперперсонализированными. Голосовой фишинг и дипфейк-атаки превратились в угрозу, обходящую даже обученных сотрудников. Автор: Константин Саматов, член Правления Ассоциации руководителей служб информационной безопасности Представьте себе ситуацию, которая еще вчера казалась фантастической: рядовой сотрудник, проверяя почту, получает идеальное, безупречное письмо от руководителя, требующее срочного действия. Текст, тон, даже фоновое изображение – все сгенерировано нейросетью, имитирующей стиль общения директора компании. В то же время финансовый директор получает срочный звонок: в видеоокне безупречный дипфейк генерального директора, который тревожным, но абсолютно убедительным голосом требует немедленно перевести средства, ссылаясь на форс-мажор. Сотрудники выполняют требуемое действие, и в результате организация сталкивается с финансовыми потерями и ре
Оглавление

Человеческий фактор в ИБ эволюционировал от пассивного источника ошибок до активного объекта эксплуатации со стороны ИИ. Атаки стали гиперперсонализированными. Голосовой фишинг и дипфейк-атаки превратились в угрозу, обходящую даже обученных сотрудников.

Автор: Константин Саматов, член Правления Ассоциации руководителей служб информационной безопасности

Представьте себе ситуацию, которая еще вчера казалась фантастической: рядовой сотрудник, проверяя почту, получает идеальное, безупречное письмо от руководителя, требующее срочного действия. Текст, тон, даже фоновое изображение – все сгенерировано нейросетью, имитирующей стиль общения директора компании. В то же время финансовый директор получает срочный звонок: в видеоокне безупречный дипфейк генерального директора, который тревожным, но абсолютно убедительным голосом требует немедленно перевести средства, ссылаясь на форс-мажор. Сотрудники выполняют требуемое действие, и в результате организация сталкивается с финансовыми потерями и репутационными рисками, последствия которых будут проявляться месяцами или даже годами.

Сценарий, в котором человеческий фактор, усиленный ИИ, становится триггером утечки, – печальная реальность. По данным Positive Technologies [1], ключевым вектором более чем 50% успешных атак остается именно фишинг, при этом ИИ-технологии увеличивают его эффективность, делая неотличимым от реальной коммуникации. Человек остается слабейшим звеном в цепочке киберзащиты: отчеты показывают, что до 96% компаний по всему миру уязвимы из-за неосторожности, ошибок или несоблюдения сотрудниками протоколов и регламентов.

Процесс импортозамещения в период 2022–2025 гг. временно усилил риски, связанные с человеческим фактором, из-за сложности новых отечественных систем и недостаточного обучения персонала.


Таблица 1. Обобщенная периодизация развития угроз, связанных с человеческим фактором, и роль ИИ в их эволюции
Таблица 1. Обобщенная периодизация развития угроз, связанных с человеческим фактором, и роль ИИ в их эволюции

Как теперь защищаться?

Для эффективной защиты необходимо выделить две наиболее опасные угрозы, появившиеся благодаря генеративному ИИ.

Первая – дипфейки руководителей высшего звена. Атаки на указанных лиц являются самой разрушительной формой социальной инженерии, использующей ИИ для клонирования голоса и видео руководителей. Злоумышленники эксплуатируют два ключевых психологических триггера влияния: авторитетность и давление срочности.

Механизм атаки следующий: ИИ анализирует публичные выступления (видеоконференции) или даже корпоративные записи голоса руководителя, создавая его безупречный цифровой дубликат. Далее этот дипфейк используется для срочных команд, например:

  • клонированный финансовый директор звонит в финансовый отдел с требованием немедленного перевода крупной суммы, ссылаясь на секретную сделку или аудиторскую проверку;
  • дипфейк руководителя связывается с сотрудником, утверждая, что компанией срочно интересуются правоохранительные или контролирующие органы, и требует немедленно предоставить или удалить критические данные под предлогом проведения внутренней проверки и т.п.

В отличие от традиционного фишинга, дипфейки практически невозможно обнаружить на слух или глаз в условиях стресса.

Вторая угроза – теневой ИИ – несанкционированное использование сотрудниками внешних, публичных генеративных ИИ-сервисов, например чат-ботов, для выполнения рабочих задач. Это одна из самых серьезных угроз утечки на сегодняшний день, поскольку конфиденциальная информация вводится в сторонние облачные модели, которые могут использовать ее для обучения или каких-либо иных целей.

Сотрудник, желая сэкономить время, вводит в публичный чат-бот:

  • черновик коммерческого предложения с секретными ценами;
  • фрагмент исходного кода закрытого проекта;
  • обезличенные, но содержащие чувствительные данные, отчеты;
  • необезличенные файлы, содержащие коммерческую тайну или персональные данные и т.п.

Эффективная защита от угроз, связанных с человеческим фактором, в эпоху генеративного искусственного интеллекта требует сочетания организационных мер, технологических ограничений и управляемого применения ИИ-инструментов.

Как известно, защитные меры должны быть масштабируемыми и зависеть от ресурсов. Можно выделить три уровня внедрения защитных мер, которые могут обеспечить необходимую защиту от дипфейков и теневого ИИ.

Начальный уровень. Малый бизнес

Цель: предотвратить утечки данных, несанкционированное использование ИИ-сервисов и минимизировать риск атак через дипфейки.

Основные меры:

  1. Издать внутренний приказ о запрете использования любых, прежде всего зарубежных, публичных ИИ-сервисов (ChatGPT, Gemini, Claude, DeepSeek и т. д.) для обработки рабочих данных. Установить ответственность за нарушение и назначить сотрудника, контролирующего соблюдение запрета.
  2. Ввести обязательное правило двух каналов – любое срочное финансовое поручение или поручение связанное с предоставлением критичных данных (персональных данных, коммерческой тайны) должно быть подтверждено повторно по независимому каналу связи. Например, если распоряжение поступило по видео или телефону, то сотрудник обязан завершить разговор и перезвонить по известному внутреннему номеру.
  3. Использовать возможности встроенных межсетевых экранов и бесплатных DNS-фильтров для блокировки доменов популярных LLM.
  4. Утвердить краткую инструкцию об использовании ИИ в организации, где определено, что разрешено, а что нет.

Средний уровень. Средний бизнес

Цель: централизовать контроль над применением ИИ, исключить внедрение поддельных компонентов в цепочку поставок и повысить защищенность от дипфейков.

Основные меры:

  1. Систематизация ИИ-использования:
    - создать реестр разрешенных ИИ-инструментов;
    - ввести процедуру согласования новых сервисов (через форму заявки или утверждение ИТ-/ИБ-специалистом);
    - ограничить доступ к неразрешенным сервисам через прокси-сервер или межсетевой экран.
  2. Контроль утечек информации:
    - установить недорогие решения для обнаружения попыток передачи файлов, содержащих коммерческие данные;
    - блокировать отправку документов, содержащих ключевые слова вроде "ИНН", "коммерческая тайна", "договор".
  3. Безопасность цепочки поставок ИИ и ПО:
    - использовать только проверенные источники программ (официальные репозитории, цифровые подписи);
    - запрещать установку сторонних ботов и плагинов ИИ без проверки.
  4. Проводить обучение и тестирование сотрудников – короткие тренинги по распознаванию дипфейков и фишинга, демонстрация примеров поддельных (фишинговых) писем, голосовых сообщений и видеозвонков.

Продвинутый уровень. Крупный бизнес

Цель: обеспечить управляемое, прозрачное и безопасное использование ИИ, включая защиту от дипфейков, утечек и несанкционированных моделей.

Основные меры:

  1. Систематизация ИИ-использования:
    - утвердить политику корпоративного управления ИИ, где определены роли, ответственность, требования к хранению данных и согласованию использования моделей;
    - назначить ответственного за соответствие (AI Compliance Officer [2]) и проводить ежегодные внутренние аудиты использования ИИ.
  2. Безопасность цепочки поставок:
    - вести реестр моделей и компонентов ИИ, используемых в бизнес-процессах;
    - проверять источники и целостность библиотек и обученных моделей;
    - фиксировать версии и контролировать обновления, чтобы исключить внедрение вредоносных элементов.
  3. Контроль и фильтрация генеративных данных:
    - использовать инструменты для защиты от утечек контекста при работе внутренних ИИ-агентов;
    - внедрить проверку входящих сообщений и медиафайлов на признаки дипфейков (через ИИ-детекторы или цифровые водяные знаки).
  4. Анализ поведения сотрудников: применять поведенческие системы (User and Entity Behavior Analytics) для выявления аномалий (вход ночью, массовое копирование файлов, необычные действия в CRM).

В эпоху генеративного ИИ человеческий фактор становится не просто слабым звеном, а зеркалом новых технологических угроз. ИИ усиливает недостатки, присущие человеку, – усталость, доверчивость, склонность к ошибкам.

Ключ к успеху лежит в сбалансированной интеграции: не пытаться устранить человеческий фактор, а управлять им. Стратегии, рассмотренные в этой статье, направлены именно на достижение такого баланса, где технологии не заменяют человека, а помогают ему действовать осознанно, быстро и безопасно.

Независимо от масштаба бизнеса – будь то малое предприятие, средняя компания или крупная корпорация – безопасность начинается с осознанного управления рисками и формирования внутренней культуры ответственного обращения с ИИ.

Практическая устойчивость к ИИ-угрозам достигается не масштабом инвестиций, а зрелостью процессов: своевременным контролем, обучением и постоянной проверкой эффективности принятых мер.