Помните историю с Samsung? В 2023 году инженеры компании загрузили в ChatGPT секретный код для оптимизации, и он улетел на серверы OpenAI. В 2026 году такие случаи перестали быть редкостью — они стали системой.
За последний год объем корпоративной информации, отправляемой в публичные нейросети, вырос в 30 раз. Сотрудники загружают в чат-боты исходный код, финансовые отчеты, юридические документы и клиентские базы. Просто чтобы «упростить рутину» .
46% конфиденциальных файлов попадает в нейросети именно через ChatGPT .
И это только то, что можно посчитать. А теперь давайте разберемся, что реально происходит с вашими данными, кому можно верить, а кому — категорически нет.
📊 Что говорят цифры
Я собрал данные из нескольких свежих исследований (март 2026):
🔴 80% популярных нейросетей передают пользовательские данные третьим лицам. Это не обязательно «продажа», но факт: ваша переписка уходит партнерам — хостинг-провайдерам, техподдержке, аналитикам качества .
🔴 60% компаний в России вообще не имеют никаких AI-governance политик. То есть сотрудники используют нейросети как хотят, а безопасность узнает об этом последней .
🔴 40% российских ИТ-компаний уже внедрили проекты на базе генеративного ИИ. При этом только 8% пока не применяют технологию вообще .
🔴 26% россиян старше 12 лет пользуются ИИ-сервисами минимум раз в месяц. К концу 2026 года эта цифра может вырасти до 50% .
🚨 Реальные инциденты (это не теория)
Samsung: секретный код утек через ChatGPT
Инженеры полупроводникового подразделения использовали ChatGPT для проверки и оптимизации исходного кода. В результате фрагменты секретного кода и записи совещаний оказались на серверах OpenAI. Компания экстренно вводила ограничения и разрабатывала свой внутренний ИИ .
CISA: правительство тоже попадается
Исполняющий обязанности главы Агентства по кибербезопасности США загрузил служебные документы в публичную версию ChatGPT. Материалы не были секретными, но среди них оказались контракты с пометкой «только для официального использования». Началось расследование на уровне Министерства внутренней безопасности .
Grok: чаты утекли в Google
Сотни тысяч разговоров пользователей с чат-ботом Grok оказались проиндексированы поисковиком Google. Из-за функции «поделиться чатом» в открытом доступе оказались запросы на создание паролей, планы питания и даже инструкции по изготовлению запрещенных веществ .
Фейковые нейросети: угроза для 10 млн россиян
Из-за сложностей с оплатой зарубежных сервисов мошенники создают поддельные ChatGPT и Midjourney. Пользователи таких «нейросетей» рискуют раскрыть свои данные злоумышленникам. По оценкам экспертов, в России таких людей уже более 10 миллионов .
⚖️ Рейтинг безопасности нейросетей 2026
Сервис «Рейтинг Рунета» провел исследование политик конфиденциальности 10 популярных нейросетей. Вот как они распределились по уровню безопасности и контроля над данными :
🎯 Кто чем пользуется
Исследование Яндекса показало, что 40% предпринимателей в России уже используют ИИ в работе. Распределение по отраслям :
📊 Для сбора информации и анализа бизнес-процессов — 40%
✍️ Для создания контента — 37%
📈 Для анализа данных и прогнозов — 27%
Самые опытные пользователи ИИ (оценивают свои навыки на 4 из 5):
- ИТ-специалисты
- Общепит
- Образование и наука
- Маркетинг
- Автомобильный бизнес
Где ИИ используют чаще всего:
- Казань — 62%
- Санкт-Петербург — 50%
- Красноярск — 48%
- Воронеж — 47%
- Ростов-на-Дону — 46%
При этом уровень владения инструментами в целом низкий — в среднем 2 балла из 5. Большинство пробовали пару раз, но не умеют писать промпты и не знают всех возможностей .
🛡️ Что можно и нельзя загружать в нейросети
На основе анализа инцидентов и политик безопасности я собрал простые правила.
🔴 НЕЛЬЗЯ (даже думать нельзя)
❌ Исходный код проприетарного ПО — утечка интеллектуальной собственности
❌ Клиентские базы с персональными данными — нарушение 152-ФЗ
❌ Финансовые отчеты до публикации — инсайд для конкурентов
❌ Любые документы с пометкой «конфиденциально»
❌ Логины, пароли, ключи доступа — даже в зашифрованном виде
❌ Стратегии развития, маркетинговые планы — конкурентная разведка не дремлет
❌ Медицинские данные — особая категория защиты
🟡 МОЖНО, но с осторожностью
🟡 Обезличенные данные — убрали имена, адреса, идентификаторы
🟡 Фрагменты кода без бизнес-логики — только если это общеизвестные алгоритмы
🟡 Тексты без коммерческой тайны — но если это договор — думайте сами
🟡 Черновики без уникальных идей — если идея стоит денег, не рискуйте
🟢 МОЖНО
🟢 Открытые данные из интернета
🟢 Общедоступную информацию
🟢 Тексты без привязки к компании
🟢 Вопросы общего характера
📋 Как защитить себя и компанию
Если вы пользуетесь нейросетями для работы — вот что нужно сделать прямо сейчас:
1️⃣ Изучите политику конфиденциальности
Перед тем как загрузить важный документ, зайдите в настройки и посмотрите:
- Есть ли возможность отключить обучение модели на ваших данных
- Используются ли данные в коммерческих целях
- Кому третьему они могут передаваться
2️⃣ Используйте корпоративные версии
ChatGPT, Claude и Grok предлагают защищенные корпоративные тарифы, где ваши данные не идут на обучение модели. Если компания платит за безопасность — это лучший вариант.
3️⃣ Не верьте фейкам
Если нейросеть просит слишком много личных данных, а URL подозрительный — бегите. Проверяйте адреса: у официальных сервисов они уникальные и легко узнаваемые .
4️⃣ Чистите данные
Перед загрузкой документа удалите из него все метаданные, названия файлов, имена авторов. ИИ не нужно знать, кто написал этот отчет.
5️⃣ Требуйте политики на работе
Если в вашей компании нет правил использования ИИ — станьте инициатором. 60% компаний уже в зоне риска .
🤔 А что с российскими нейросетями?
У российских сервисов есть важное преимущество: данные хранятся на территории РФ. ГигаЧат от Сбера и Алиса от Яндекса подпадают под российское законодательство.
Но есть нюанс:
- GigaChat (3/5 по безопасности) — не дает отключить обучение на своих данных и может использовать их в коммерческих целях
- Алиса AI (2/5) — то же самое, плюс нет корпоративной версии
То есть формально они безопаснее с точки зрения географии, но с точки зрения контроля над данными — уступают западным корпоративным версиям.
🔥 Главный вывод
Нейросети не враги. Они просто инструменты, у которых есть свои правила.
Проблема не в технологии, а в том, что 60% организаций не контролируют этот канал утечки . Сотрудники становятся невольным источником риска, потому что никто не объяснил им простых правил.
Полный запрет ИИ — тупик. Это все равно что запретить Excel в 90-х. Решение — в гранулярных политиках безопасности, которые разрешают, ограничивают или запрещают использование конкретных нейросетей в зависимости от типа данных .
И да: если вы до сих пор используете бесплатный ChatGPT для рабочих задач и загружаете туда договоры — остановитесь прямо сейчас.
А вы сталкивались с утечками через нейросети? Пользуетесь корпоративными версиями или берете бесплатные? Делитесь в комментариях 🔥