Добавить в корзинуПозвонить
Найти в Дзене

Сотрудники массово сливают данные в ИИ-сервисы: новая угроза бизнесу в 2025–2026 годах

Пока компании спорят, заменит ли искусственный интеллект бухгалтеров, юристов и айтишников, сам ИИ тихо становится каналом утечки данных. Причём не из-за хакеров, а из-за собственных сотрудников. В 2025 году работники российских компаний в 30 раз чаще, чем годом ранее, загружали в бесплатные нейросети конфиденциальную информацию работодателей. Об этом сообщили аналитики компании «Солар».
В сеть через ИИ утекают финансовые отчёты, клиентские базы, внутренние инструкции, стратегии и даже фрагменты программного кода. Ирония ситуации в том, что чаще всего это происходит не со зла и не за деньги, а «чтобы было быстрее и удобнее». По данным аналитиков, сотрудники активно используют общедоступные ИИ-сервисы — в первую очередь Google Gemini и ChatGPT.
Причём через ChatGPT в 2025 году прошло 46% всех выявленных конфиденциальных файлов и инструкций. Сценарий почти всегда один и тот же: На первый взгляд — ничего страшного.
На второй — в ИИ улетает всё подряд, включая то, что компания считает
Оглавление

Пока компании спорят, заменит ли искусственный интеллект бухгалтеров, юристов и айтишников, сам ИИ тихо становится каналом утечки данных. Причём не из-за хакеров, а из-за собственных сотрудников.

В 2025 году работники российских компаний в 30 раз чаще, чем годом ранее, загружали в бесплатные нейросети конфиденциальную информацию работодателей. Об этом сообщили аналитики компании «Солар».

В сеть через ИИ утекают
финансовые отчёты, клиентские базы, внутренние инструкции, стратегии и даже фрагменты программного кода.

Ирония ситуации в том, что чаще всего это происходит не со зла и не за деньги, а «чтобы было быстрее и удобнее».

Что именно происходит и почему это стало массовым

По данным аналитиков, сотрудники активно используют общедоступные ИИ-сервисы — в первую очередь Google Gemini и ChatGPT.

Причём через ChatGPT в 2025 году прошло
46% всех выявленных конфиденциальных файлов и инструкций.

Сценарий почти всегда один и тот же:

  • сотрудник устал от рутины;
  • решил «чуть упростить задачу»;
  • загрузил в нейросеть таблицу, отчёт или кусок кода;
  • получил ответ — и пошёл дальше работать.

На первый взгляд — ничего страшного.

На второй — в ИИ улетает
всё подряд, включая то, что компания считает коммерческой тайной.

Эксперты подчёркивают: в большинстве случаев сотрудники даже не осознают, что совершают утечку. Для них это просто ещё один «умный инструмент», вроде Excel или калькулятора.

Какие данные утекают чаще всего

Речь идёт не о случайных абстрактных файлах. Аналитики фиксируют вполне конкретные типы данных:

  • финансовые отчёты (включая управленку и бюджеты);
  • клиентские базы и выгрузки из CRM;
  • презентации для руководства и инвесторов;
  • стратегии развития и аналитические материалы;
  • фрагменты кода, внутренние инструкции, архитектурные решения.

То есть именно то, что:

  • формирует конкурентное преимущество;
  • подпадает под режим коммерческой тайны;
  • может создать серьёзные юридические и финансовые риски.

По сути, сотрудники добровольно превращают ИИ-сервисы в облачный архив чувствительной информации, над которым компания не имеет никакого контроля.

В каких отраслях проблема особенно острая

Чаще всего утечки через ИИ фиксировались в:

  • ИТ-компаниях
  • ритейле
  • eCommerce

Это логично:

там больше данных, больше автоматизации и больше сотрудников, которые ежедневно работают с цифрами, таблицами, кодом и клиентской информацией.

Но проблема давно вышла за пределы «айтишников».

ИИ используют бухгалтеры, маркетологи, HR, аналитики, юристы и менеджеры — практически все офисные сотрудники.

Почему компании сами виноваты

Ключевая причина происходящего — отсутствие правил.

По данным аналитиков, в большинстве компаний нет политик, которые:

  • разрешают или запрещают использование нейросетей;
  • объясняют, какие данные можно загружать в ИИ, а какие — нет;
  • устанавливают ответственность за нарушения.

Формально ИИ — это «не запрещено».

А раз не запрещено — значит можно.

Сотрудник не считает себя нарушителем:

«Я же не отправлял файл конкуренту, я просто задал вопрос нейросети».

Но с точки зрения информационной безопасности разницы нет.

Почему ИИ — это не «просто инструмент»

Главная ошибка — воспринимать нейросети как локальную программу.

На самом деле:

  • данные обрабатываются на внешних серверах;
  • компания не контролирует, где и как они хранятся;
  • невозможно гарантировать, что информация не будет использована для обучения моделей;
  • невозможно доказать, что данные «удалены навсегда».

Даже если сервис обещает конфиденциальность, для бизнеса это всё равно чёрный ящик.

И в отличие от классической утечки:

  • здесь нет взлома;
  • нет следов;
  • нет злого умысла;
  • но есть реальный риск.

Юридические и финансовые последствия

Пока компании закрывают на это глаза, но последствия могут быть серьёзными:

  • нарушение режима коммерческой тайны;
  • утечки персональных данных (и штрафы);
  • риски по договорам с клиентами и партнёрами;
  • проблемы при проверках и аудитах;
  • репутационные потери.

И самое неприятное — в случае инцидента руководство услышит:

«А у нас вообще не было политики по ИИ».

Что с этим делать бизнесу уже сейчас

Эксперты сходятся во мнении: запретить ИИ невозможно, но можно и нужно управлять рисками.

Минимум, который стоит сделать в 2026 году:

  1. Разработать политику работы с ИИ

    — что можно загружать

    — что нельзя

    — какие сервисы допустимы
  2. Обучить сотрудников

    Не «запугивать», а объяснять:

    почему Excel ≠ ChatGPT

    и чем это опасно для компании.
  3. Разграничить данные

    Всё, что содержит:

    — финансы

    — клиентов

    — стратегии

    — код

    должно быть табу для публичных ИИ.
  4. Рассмотреть корпоративные ИИ-решения

    Закрытые контуры, локальные модели, внутренние ассистенты — дорого, но безопаснее.

Вывод

ИИ стал таким же повседневным инструментом, как почта или мессенджеры.

Но бизнес почему-то забыл, что
любая удобная технология без правил превращается в источник риска.

В 2025 году сотрудники «сливали» данные не потому, что хотели навредить, а потому что:

  • было удобно;
  • никто не запретил;
  • никто не объяснил.

В 2026 году компаниям придётся выбирать:

либо они научатся жить с ИИ осознанно,

либо ИИ будет жить за их счёт — вместе с финансовыми отчётами, клиентами и стратегиями.

#ии #безопасность #бизнес #данные #конфиденциальность #киберриски #2026