Пока компании спорят, заменит ли искусственный интеллект бухгалтеров, юристов и айтишников, сам ИИ тихо становится каналом утечки данных. Причём не из-за хакеров, а из-за собственных сотрудников.
В 2025 году работники российских компаний в 30 раз чаще, чем годом ранее, загружали в бесплатные нейросети конфиденциальную информацию работодателей. Об этом сообщили аналитики компании «Солар».
В сеть через ИИ утекают финансовые отчёты, клиентские базы, внутренние инструкции, стратегии и даже фрагменты программного кода.
Ирония ситуации в том, что чаще всего это происходит не со зла и не за деньги, а «чтобы было быстрее и удобнее».
Что именно происходит и почему это стало массовым
По данным аналитиков, сотрудники активно используют общедоступные ИИ-сервисы — в первую очередь Google Gemini и ChatGPT.
Причём через ChatGPT в 2025 году прошло 46% всех выявленных конфиденциальных файлов и инструкций.
Сценарий почти всегда один и тот же:
- сотрудник устал от рутины;
- решил «чуть упростить задачу»;
- загрузил в нейросеть таблицу, отчёт или кусок кода;
- получил ответ — и пошёл дальше работать.
На первый взгляд — ничего страшного.
На второй — в ИИ улетает всё подряд, включая то, что компания считает коммерческой тайной.
Эксперты подчёркивают: в большинстве случаев сотрудники даже не осознают, что совершают утечку. Для них это просто ещё один «умный инструмент», вроде Excel или калькулятора.
Какие данные утекают чаще всего
Речь идёт не о случайных абстрактных файлах. Аналитики фиксируют вполне конкретные типы данных:
- финансовые отчёты (включая управленку и бюджеты);
- клиентские базы и выгрузки из CRM;
- презентации для руководства и инвесторов;
- стратегии развития и аналитические материалы;
- фрагменты кода, внутренние инструкции, архитектурные решения.
То есть именно то, что:
- формирует конкурентное преимущество;
- подпадает под режим коммерческой тайны;
- может создать серьёзные юридические и финансовые риски.
По сути, сотрудники добровольно превращают ИИ-сервисы в облачный архив чувствительной информации, над которым компания не имеет никакого контроля.
В каких отраслях проблема особенно острая
Чаще всего утечки через ИИ фиксировались в:
- ИТ-компаниях
- ритейле
- eCommerce
Это логично:
там больше данных, больше автоматизации и больше сотрудников, которые ежедневно работают с цифрами, таблицами, кодом и клиентской информацией.
Но проблема давно вышла за пределы «айтишников».
ИИ используют бухгалтеры, маркетологи, HR, аналитики, юристы и менеджеры — практически все офисные сотрудники.
Почему компании сами виноваты
Ключевая причина происходящего — отсутствие правил.
По данным аналитиков, в большинстве компаний нет политик, которые:
- разрешают или запрещают использование нейросетей;
- объясняют, какие данные можно загружать в ИИ, а какие — нет;
- устанавливают ответственность за нарушения.
Формально ИИ — это «не запрещено».
А раз не запрещено — значит можно.
Сотрудник не считает себя нарушителем:
«Я же не отправлял файл конкуренту, я просто задал вопрос нейросети».
Но с точки зрения информационной безопасности разницы нет.
Почему ИИ — это не «просто инструмент»
Главная ошибка — воспринимать нейросети как локальную программу.
На самом деле:
- данные обрабатываются на внешних серверах;
- компания не контролирует, где и как они хранятся;
- невозможно гарантировать, что информация не будет использована для обучения моделей;
- невозможно доказать, что данные «удалены навсегда».
Даже если сервис обещает конфиденциальность, для бизнеса это всё равно чёрный ящик.
И в отличие от классической утечки:
- здесь нет взлома;
- нет следов;
- нет злого умысла;
- но есть реальный риск.
Юридические и финансовые последствия
Пока компании закрывают на это глаза, но последствия могут быть серьёзными:
- нарушение режима коммерческой тайны;
- утечки персональных данных (и штрафы);
- риски по договорам с клиентами и партнёрами;
- проблемы при проверках и аудитах;
- репутационные потери.
И самое неприятное — в случае инцидента руководство услышит:
«А у нас вообще не было политики по ИИ».
Что с этим делать бизнесу уже сейчас
Эксперты сходятся во мнении: запретить ИИ невозможно, но можно и нужно управлять рисками.
Минимум, который стоит сделать в 2026 году:
- Разработать политику работы с ИИ
— что можно загружать
— что нельзя
— какие сервисы допустимы - Обучить сотрудников
Не «запугивать», а объяснять:
почему Excel ≠ ChatGPT
и чем это опасно для компании. - Разграничить данные
Всё, что содержит:
— финансы
— клиентов
— стратегии
— код
должно быть табу для публичных ИИ. - Рассмотреть корпоративные ИИ-решения
Закрытые контуры, локальные модели, внутренние ассистенты — дорого, но безопаснее.
Вывод
ИИ стал таким же повседневным инструментом, как почта или мессенджеры.
Но бизнес почему-то забыл, что любая удобная технология без правил превращается в источник риска.
В 2025 году сотрудники «сливали» данные не потому, что хотели навредить, а потому что:
- было удобно;
- никто не запретил;
- никто не объяснил.
В 2026 году компаниям придётся выбирать:
либо они научатся жить с ИИ осознанно,
либо ИИ будет жить за их счёт — вместе с финансовыми отчётами, клиентами и стратегиями.
#ии #безопасность #бизнес #данные #конфиденциальность #киберриски #2026