Добавить в корзинуПозвонить
Найти в Дзене
Промпт-Дневник

🤖 Нейросети сливают данные? Кому нельзя доверять и что закидывать нельзя

Помните историю с Samsung? В 2023 году инженеры компании загрузили в ChatGPT секретный код для оптимизации, и он улетел на серверы OpenAI. В 2026 году такие случаи перестали быть редкостью — они стали системой. За последний год объем корпоративной информации, отправляемой в публичные нейросети, вырос в 30 раз. Сотрудники загружают в чат-боты исходный код, финансовые отчеты, юридические документы и клиентские базы. Просто чтобы «упростить рутину» . 46% конфиденциальных файлов попадает в нейросети именно через ChatGPT . И это только то, что можно посчитать. А теперь давайте разберемся, что реально происходит с вашими данными, кому можно верить, а кому — категорически нет. Я собрал данные из нескольких свежих исследований (март 2026): 🔴 80% популярных нейросетей передают пользовательские данные третьим лицам. Это не обязательно «продажа», но факт: ваша переписка уходит партнерам — хостинг-провайдерам, техподдержке, аналитикам качества . 🔴 60% компаний в России вообще не имеют никаких AI
Оглавление

Помните историю с Samsung? В 2023 году инженеры компании загрузили в ChatGPT секретный код для оптимизации, и он улетел на серверы OpenAI. В 2026 году такие случаи перестали быть редкостью — они стали системой.

За последний год объем корпоративной информации, отправляемой в публичные нейросети, вырос в 30 раз. Сотрудники загружают в чат-боты исходный код, финансовые отчеты, юридические документы и клиентские базы. Просто чтобы «упростить рутину» .

46% конфиденциальных файлов попадает в нейросети именно через ChatGPT .

И это только то, что можно посчитать. А теперь давайте разберемся, что реально происходит с вашими данными, кому можно верить, а кому — категорически нет.

📊 Что говорят цифры

Я собрал данные из нескольких свежих исследований (март 2026):

🔴 80% популярных нейросетей передают пользовательские данные третьим лицам. Это не обязательно «продажа», но факт: ваша переписка уходит партнерам — хостинг-провайдерам, техподдержке, аналитикам качества .

🔴 60% компаний в России вообще не имеют никаких AI-governance политик. То есть сотрудники используют нейросети как хотят, а безопасность узнает об этом последней .

🔴 40% российских ИТ-компаний уже внедрили проекты на базе генеративного ИИ. При этом только 8% пока не применяют технологию вообще .

🔴 26% россиян старше 12 лет пользуются ИИ-сервисами минимум раз в месяц. К концу 2026 года эта цифра может вырасти до 50% .

🚨 Реальные инциденты (это не теория)

Samsung: секретный код утек через ChatGPT

Инженеры полупроводникового подразделения использовали ChatGPT для проверки и оптимизации исходного кода. В результате фрагменты секретного кода и записи совещаний оказались на серверах OpenAI. Компания экстренно вводила ограничения и разрабатывала свой внутренний ИИ .

CISA: правительство тоже попадается

Исполняющий обязанности главы Агентства по кибербезопасности США загрузил служебные документы в публичную версию ChatGPT. Материалы не были секретными, но среди них оказались контракты с пометкой «только для официального использования». Началось расследование на уровне Министерства внутренней безопасности .

Grok: чаты утекли в Google

Сотни тысяч разговоров пользователей с чат-ботом Grok оказались проиндексированы поисковиком Google. Из-за функции «поделиться чатом» в открытом доступе оказались запросы на создание паролей, планы питания и даже инструкции по изготовлению запрещенных веществ .

Фейковые нейросети: угроза для 10 млн россиян

Из-за сложностей с оплатой зарубежных сервисов мошенники создают поддельные ChatGPT и Midjourney. Пользователи таких «нейросетей» рискуют раскрыть свои данные злоумышленникам. По оценкам экспертов, в России таких людей уже более 10 миллионов .

⚖️ Рейтинг безопасности нейросетей 2026

Сервис «Рейтинг Рунета» провел исследование политик конфиденциальности 10 популярных нейросетей. Вот как они распределились по уровню безопасности и контроля над данными :

-2

🎯 Кто чем пользуется

Исследование Яндекса показало, что 40% предпринимателей в России уже используют ИИ в работе. Распределение по отраслям :

📊 Для сбора информации и анализа бизнес-процессов — 40%
✍️
Для создания контента — 37%
📈
Для анализа данных и прогнозов — 27%

Самые опытные пользователи ИИ (оценивают свои навыки на 4 из 5):

  • ИТ-специалисты
  • Общепит
  • Образование и наука
  • Маркетинг
  • Автомобильный бизнес

Где ИИ используют чаще всего:

  • Казань — 62%
  • Санкт-Петербург — 50%
  • Красноярск — 48%
  • Воронеж — 47%
  • Ростов-на-Дону — 46%

При этом уровень владения инструментами в целом низкий — в среднем 2 балла из 5. Большинство пробовали пару раз, но не умеют писать промпты и не знают всех возможностей .

🛡️ Что можно и нельзя загружать в нейросети

На основе анализа инцидентов и политик безопасности я собрал простые правила.

🔴 НЕЛЬЗЯ (даже думать нельзя)

Исходный код проприетарного ПО — утечка интеллектуальной собственности
Клиентские базы с персональными данными — нарушение 152-ФЗ
Финансовые отчеты до публикации — инсайд для конкурентов
Любые документы с пометкой «конфиденциально»
Логины, пароли, ключи доступа — даже в зашифрованном виде
Стратегии развития, маркетинговые планы — конкурентная разведка не дремлет
Медицинские данные — особая категория защиты

🟡 МОЖНО, но с осторожностью

🟡 Обезличенные данные — убрали имена, адреса, идентификаторы
🟡
Фрагменты кода без бизнес-логики — только если это общеизвестные алгоритмы
🟡
Тексты без коммерческой тайны — но если это договор — думайте сами
🟡
Черновики без уникальных идей — если идея стоит денег, не рискуйте

🟢 МОЖНО

🟢 Открытые данные из интернета
🟢
Общедоступную информацию
🟢
Тексты без привязки к компании
🟢
Вопросы общего характера

📋 Как защитить себя и компанию

Если вы пользуетесь нейросетями для работы — вот что нужно сделать прямо сейчас:

1️⃣ Изучите политику конфиденциальности

Перед тем как загрузить важный документ, зайдите в настройки и посмотрите:

  • Есть ли возможность отключить обучение модели на ваших данных
  • Используются ли данные в коммерческих целях
  • Кому третьему они могут передаваться

2️⃣ Используйте корпоративные версии

ChatGPT, Claude и Grok предлагают защищенные корпоративные тарифы, где ваши данные не идут на обучение модели. Если компания платит за безопасность — это лучший вариант.

3️⃣ Не верьте фейкам

Если нейросеть просит слишком много личных данных, а URL подозрительный — бегите. Проверяйте адреса: у официальных сервисов они уникальные и легко узнаваемые .

4️⃣ Чистите данные

Перед загрузкой документа удалите из него все метаданные, названия файлов, имена авторов. ИИ не нужно знать, кто написал этот отчет.

5️⃣ Требуйте политики на работе

Если в вашей компании нет правил использования ИИ — станьте инициатором. 60% компаний уже в зоне риска .

🤔 А что с российскими нейросетями?

У российских сервисов есть важное преимущество: данные хранятся на территории РФ. ГигаЧат от Сбера и Алиса от Яндекса подпадают под российское законодательство.

Но есть нюанс:

  • GigaChat (3/5 по безопасности) — не дает отключить обучение на своих данных и может использовать их в коммерческих целях
  • Алиса AI (2/5) — то же самое, плюс нет корпоративной версии

То есть формально они безопаснее с точки зрения географии, но с точки зрения контроля над данными — уступают западным корпоративным версиям.

🔥 Главный вывод

Нейросети не враги. Они просто инструменты, у которых есть свои правила.

Проблема не в технологии, а в том, что 60% организаций не контролируют этот канал утечки . Сотрудники становятся невольным источником риска, потому что никто не объяснил им простых правил.

Полный запрет ИИ — тупик. Это все равно что запретить Excel в 90-х. Решение — в гранулярных политиках безопасности, которые разрешают, ограничивают или запрещают использование конкретных нейросетей в зависимости от типа данных .

И да: если вы до сих пор используете бесплатный ChatGPT для рабочих задач и загружаете туда договоры — остановитесь прямо сейчас.

А вы сталкивались с утечками через нейросети? Пользуетесь корпоративными версиями или берете бесплатные? Делитесь в комментариях 🔥