Ситуация: вы вечером открываете ChatGPT или DeepSeek, просите помочь с отчётом, кидаете туда таблицу с продажами, пару договоров, список клиентов. Думаете: «Кому это надо, я же просто помочь себя прошу».
А на самом деле этот запрос улетает на сервер. Где-то там, в дата-центре, ваши договоры, списки клиентов и стратегии остаются лежать в логах. И никто не знает, кто и когда к ним потом получит доступ.
Я не пугаю. Я просто смотрел свежие цифры. За последний год объём корпоративных данных, которые сотрудники загружают в нейросети, вырос в 30 раз. При этом 60% компаний вообще не имеют никаких правил, что можно в ИИ закидывать, а что нельзя. И 46% всех утечек конфиденциальных файлов идут именно через ChatGPT.
Вы спросите: а мне-то что, я не корпорация. Но ваши личные данные — паспорт, снилс, телефон, адрес — тоже чья-то кормовая база. Исследование "Рейтинга Рунета" от 17 февраля 2026 показало: 8 из 10 популярных нейросетей передают пользовательские данные третьим лицам.
Восемь из десяти, Карл.
Поэтому давайте спокойно разберёмся, что можно, что нельзя и как не наступить на грабли.
Что вообще происходит с вашими данными?
Когда вы пишете запрос в нейросеть, он не исчезает бесследно. Почитайте политики конфиденциальности — там написано примерно следующее:
OpenAI может агрегировать или обезличивать ваши данные и использовать их для улучшения сервиса и исследований. Персональные данные могут передаваться подрядчикам и поставщикам услуг.
GigaChat не даёт пользователям возможности запретить обучение модели на своих данных и допускает их использование в коммерческих целях.
Алиса AI делает то же самое — учится на ваших диалогах, и это нельзя отключить.
DeepSeek — аналогично, причём корпоративной версии вообще нет.
Самые прозрачные в этом плане — ChatGPT (платная версия), Claude и Grok. У них можно отключить обучение на своих диалогах, есть защищённые корпоративные версии. Но это не значит, что они неуязвимы.
Пример из реальной жизни. В США глава Агентства по кибербезопасности лично загрузил служебные документы в публичную версию ChatGPT. Материалы не имели грифа секретности, но среди них были контрактные документы с пометкой "for official use only". Система безопасности зафиксировала, началось расследование на уровне министерства.
Или случай с Samsung. Инженеры полупроводникового подразделения использовали ChatGPT для проверки кода и создания транскрипций совещаний. В результате фрагменты секретного исходного кода оказались на серверах OpenAI. Компании пришлось срочно вводить ограничения.
И таких историй сотни. Просто мы о них не знаем.
Что категорически нельзя загружать в нейросети.
Я собрал список того, что должно оставаться только у вас. Даже если очень хочется спросить совет у ИИ.
Персональные данные — ФИО, телефоны, адреса, паспортные данные, email-адреса. Любые сведения, по которым можно идентифицировать человека.
Коммерческая тайна. Сюда входит:
- Исходный код, дизайн до публикации, технические решения
- Логины, пароли, токены доступа
- Базы клиентов
- Условия договоров (цены, скидки)
- Финансовые модели, стратегии, бизнес-планы
- Данные о зарплатах сотрудников
Медицинская информация — диагнозы, результаты анализов, история болезней.
Финансовые данные — номера карт, счета, движение денег.
Простой принцип: если эту информацию можно использовать против вас или вашей компании, или если за её утечку предусмотрен штраф — в нейросеть ей не место.
Юридическая справка: с 30 мая 2025 года штрафы за утечку персональных данных выросли до 15 млн рублей для компаний. Для руководителя — до 75 тысяч. Это не шутки.
7 простых правил безопасного использования.
Я перерыл кучу источников — от экспертных колонок до официальных рекомендаций — и собрал правила, которые реально работают.
Правило 1. Анонимизируйте данные.
Хотите спросить у нейросети: «Как улучшить договор с Ивановым И.И. на поставку оборудования»? Так делать не нужно.
Уберите все имена, названия, конкретные цифры. Оставьте суть. Вместо «ООО "Ромашка"» пишите «компания-поставщик». Вместо «Иванов И.И.» — «контрагент».
Даже если кажется, что это никому не нужно — перестрахуйтесь.
Правило 2. Используйте обезличенные формулировки.
Вместо «Проанализируй финансовые риски моей компании» спросите: «Какие финансовые риски могут быть у организации, при следующих условиях...» и перечислите условия без привязки к реальности.
ИИ не нужно знать, что это именно ваши цифры. Ему достаточно задачи.
Правило 3. Отключите обучение модели на своих данных.
В платных версиях ChatGPT, Claude и Grok такая опция есть. Зайдите в настройки и убедитесь, что ваши диалоги не используются для обучения.
В российских GigaChat и Алисе, к сожалению, это отключить нельзя. Имейте в виду.
Правило 4. Не пользуйтесь функцией «поделиться».
Эксперт по кибербезопасности Алексей Ратников предупреждает: не копируйте готовые промпты из интернета и не пользуйтесь функцией «поделиться чатом» через мессенджеры.
Был случай, когда сотни тысяч разговоров с чат-ботом Grok оказались проиндексированы Google — как раз из-за функции «поделиться». В сети оказались запросы на создание паролей, планы питания и много чего еще.
Правило 5. Включите двухфакторную аутентификацию.
Там, где можно — включайте. Это базовое правило, но им часто пренебрегают.
Правило 6. Выбирайте российские сервисы для чувствительных данных.
Иностранные сервисы подпадают под юрисдикцию других стран. В Россию нельзя передавать персональные данные в зарубежные нейросети без получения согласия Роскомнадзора на трансграничную передачу.
Если работаете с реальными данными россиян — лучше использовать GigaChat, YandexGPT или корпоративные решения, развёрнутые внутри компании.
Правило 7. Используйте корпоративные версии для рабочих задач.
Если вы работаете с реальными данными клиентов, договорами или коммерческой тайной — бесплатные общедоступные нейросети не ваш вариант. Для этого существуют корпоративные тарифы.
У OpenAI есть ChatGPT Enterprise — данные не используются для обучения, всё шифруется, соответствие корпоративным стандартам безопасности. У Яндекса для бизнеса — YandexGPT с защищённым контуром. У Сбера — GigaChat Pro для организаций.
Да, это стоит денег. Но утечка базы клиентов или исходного кода стоит дороже. Намного.
Если вы обычный пользователь и просто боитесь за свои личные данные — достаточно первых шести правил и здравого смысла. А если работаете с чувствительной информацией — попросите у работодателя доступ к корпоративной версии. Или хотя бы уточните, что можно, а что нельзя.
Не пугайтесь, нейросетями пользоваться можно и нужно. Просто с умом.
Безопасно:
- Попросить переписать текст в другом стиле
- Спросить идеи для названия бренда (без привязки к реальным данным)
- Попросить объяснить сложную тему простыми словами
- Составить план статьи или презентации (шаблон)
- Перевести текст с иностранного языка (не секретный)
Опасно:
- Загрузить договор с реальными контрагентами
- Попросить проанализировать базу клиентов
- Написать код с реальными ключами доступа
- Загрузить сканы паспортов или документов
- Спросить про уязвимости в вашей системе безопасности
Искусственный интеллект — это не враг и не друг. Это инструмент.
80% проблем с безопасностью при использовании ИИ возникает не потому, что нейросети плохие, а потому что мы сами кидаем туда то, что кидать не стоило.
Поэтому просто запомните две вещи.
Первая: ИИ — это общественное место. Всё, что вы ему говорите, могут услышать другие. Не пишите в нейросеть ничего личного, конфидециального.
Вторая: если очень надо поработать с чувствительными данными — ищите корпоративные решения внутри компании или консультируйтесь с теми, кто за это отвечает. А если вы обычный пользователь и просто боитесь за свои личные данные — пользуйтесь российскими сервисами и не кидайте туда паспорта.
И да, если хотите быть в курсе, как меняется мир ИИ и при этом не потерять свои данные — подписывайтесь на канал. Мы тут каждый день разбираем такие штуки. Без паники, с юмором и по делу.
#безопасность #нейросети2026 #защитаданных #приватность #иишпаргалка #лайфхаки #советы