Найти в Дзене
Подборка

Как защитить свои данные при использовании нейросетей: 7 простых правил.

Ситуация: вы вечером открываете ChatGPT или DeepSeek, просите помочь с отчётом, кидаете туда таблицу с продажами, пару договоров, список клиентов. Думаете: «Кому это надо, я же просто помочь себя прошу».
А на самом деле этот запрос улетает на сервер. Где-то там, в дата-центре, ваши договоры, списки клиентов и стратегии остаются лежать в логах. И никто не знает, кто и когда к ним потом получит
Оглавление

Ситуация: вы вечером открываете ChatGPT или DeepSeek, просите помочь с отчётом, кидаете туда таблицу с продажами, пару договоров, список клиентов. Думаете: «Кому это надо, я же просто помочь себя прошу».

А на самом деле этот запрос улетает на сервер. Где-то там, в дата-центре, ваши договоры, списки клиентов и стратегии остаются лежать в логах. И никто не знает, кто и когда к ним потом получит доступ.

Я не пугаю. Я просто смотрел свежие цифры. За последний год объём корпоративных данных, которые сотрудники загружают в нейросети, вырос в 30 раз. При этом 60% компаний вообще не имеют никаких правил, что можно в ИИ закидывать, а что нельзя. И 46% всех утечек конфиденциальных файлов идут именно через ChatGPT.

Вы спросите: а мне-то что, я не корпорация. Но ваши личные данные — паспорт, снилс, телефон, адрес — тоже чья-то кормовая база. Исследование "Рейтинга Рунета" от 17 февраля 2026 показало: 8 из 10 популярных нейросетей передают пользовательские данные третьим лицам.

Восемь из десяти, Карл.

Поэтому давайте спокойно разберёмся, что можно, что нельзя и как не наступить на грабли.

Что вообще происходит с вашими данными?

Когда вы пишете запрос в нейросеть, он не исчезает бесследно. Почитайте политики конфиденциальности — там написано примерно следующее:

OpenAI может агрегировать или обезличивать ваши данные и использовать их для улучшения сервиса и исследований. Персональные данные могут передаваться подрядчикам и поставщикам услуг.

GigaChat не даёт пользователям возможности запретить обучение модели на своих данных и допускает их использование в коммерческих целях.

Алиса AI делает то же самое — учится на ваших диалогах, и это нельзя отключить.

DeepSeek — аналогично, причём корпоративной версии вообще нет.

Самые прозрачные в этом плане — ChatGPT (платная версия), Claude и Grok. У них можно отключить обучение на своих диалогах, есть защищённые корпоративные версии. Но это не значит, что они неуязвимы.

Пример из реальной жизни. В США глава Агентства по кибербезопасности лично загрузил служебные документы в публичную версию ChatGPT. Материалы не имели грифа секретности, но среди них были контрактные документы с пометкой "for official use only". Система безопасности зафиксировала, началось расследование на уровне министерства.

Или случай с Samsung. Инженеры полупроводникового подразделения использовали ChatGPT для проверки кода и создания транскрипций совещаний. В результате фрагменты секретного исходного кода оказались на серверах OpenAI. Компании пришлось срочно вводить ограничения.

И таких историй сотни. Просто мы о них не знаем.

-2

Что категорически нельзя загружать в нейросети.

Я собрал список того, что должно оставаться только у вас. Даже если очень хочется спросить совет у ИИ.

Персональные данные — ФИО, телефоны, адреса, паспортные данные, email-адреса. Любые сведения, по которым можно идентифицировать человека.

Коммерческая тайна. Сюда входит:

  • Исходный код, дизайн до публикации, технические решения
  • Логины, пароли, токены доступа
  • Базы клиентов
  • Условия договоров (цены, скидки)
  • Финансовые модели, стратегии, бизнес-планы
  • Данные о зарплатах сотрудников

Медицинская информация — диагнозы, результаты анализов, история болезней.

Финансовые данные — номера карт, счета, движение денег.

Простой принцип: если эту информацию можно использовать против вас или вашей компании, или если за её утечку предусмотрен штраф в нейросеть ей не место.

Юридическая справка: с 30 мая 2025 года штрафы за утечку персональных данных выросли до 15 млн рублей для компаний. Для руководителя — до 75 тысяч. Это не шутки.

7 простых правил безопасного использования.

Я перерыл кучу источников — от экспертных колонок до официальных рекомендаций — и собрал правила, которые реально работают.

Правило 1. Анонимизируйте данные.

Хотите спросить у нейросети: «Как улучшить договор с Ивановым И.И. на поставку оборудования»? Так делать не нужно.

Уберите все имена, названия, конкретные цифры. Оставьте суть. Вместо «ООО "Ромашка"» пишите «компания-поставщик». Вместо «Иванов И.И.» — «контрагент».

Даже если кажется, что это никому не нужно — перестрахуйтесь.

Правило 2. Используйте обезличенные формулировки.

Вместо «Проанализируй финансовые риски моей компании» спросите: «Какие финансовые риски могут быть у организации, при следующих условиях...» и перечислите условия без привязки к реальности.

ИИ не нужно знать, что это именно ваши цифры. Ему достаточно задачи.

Правило 3. Отключите обучение модели на своих данных.

В платных версиях ChatGPT, Claude и Grok такая опция есть. Зайдите в настройки и убедитесь, что ваши диалоги не используются для обучения.

В российских GigaChat и Алисе, к сожалению, это отключить нельзя. Имейте в виду.

Правило 4. Не пользуйтесь функцией «поделиться».

Эксперт по кибербезопасности Алексей Ратников предупреждает: не копируйте готовые промпты из интернета и не пользуйтесь функцией «поделиться чатом» через мессенджеры.

Был случай, когда сотни тысяч разговоров с чат-ботом Grok оказались проиндексированы Google — как раз из-за функции «поделиться». В сети оказались запросы на создание паролей, планы питания и много чего еще.

Правило 5. Включите двухфакторную аутентификацию.

Там, где можно — включайте. Это базовое правило, но им часто пренебрегают.

Правило 6. Выбирайте российские сервисы для чувствительных данных.

Иностранные сервисы подпадают под юрисдикцию других стран. В Россию нельзя передавать персональные данные в зарубежные нейросети без получения согласия Роскомнадзора на трансграничную передачу.

Если работаете с реальными данными россиян — лучше использовать GigaChat, YandexGPT или корпоративные решения, развёрнутые внутри компании.

Правило 7. Используйте корпоративные версии для рабочих задач.

Если вы работаете с реальными данными клиентов, договорами или коммерческой тайной — бесплатные общедоступные нейросети не ваш вариант. Для этого существуют корпоративные тарифы.

У OpenAI есть ChatGPT Enterprise — данные не используются для обучения, всё шифруется, соответствие корпоративным стандартам безопасности. У Яндекса для бизнеса — YandexGPT с защищённым контуром. У Сбера — GigaChat Pro для организаций.

Да, это стоит денег. Но утечка базы клиентов или исходного кода стоит дороже. Намного.

Если вы обычный пользователь и просто боитесь за свои личные данные — достаточно первых шести правил и здравого смысла. А если работаете с чувствительной информацией — попросите у работодателя доступ к корпоративной версии. Или хотя бы уточните, что можно, а что нельзя.

-3

Не пугайтесь, нейросетями пользоваться можно и нужно. Просто с умом.

Безопасно:

  • Попросить переписать текст в другом стиле
  • Спросить идеи для названия бренда (без привязки к реальным данным)
  • Попросить объяснить сложную тему простыми словами
  • Составить план статьи или презентации (шаблон)
  • Перевести текст с иностранного языка (не секретный)

Опасно:

  • Загрузить договор с реальными контрагентами
  • Попросить проанализировать базу клиентов
  • Написать код с реальными ключами доступа
  • Загрузить сканы паспортов или документов
  • Спросить про уязвимости в вашей системе безопасности
-4

Искусственный интеллект — это не враг и не друг. Это инструмент.

80% проблем с безопасностью при использовании ИИ возникает не потому, что нейросети плохие, а потому что мы сами кидаем туда то, что кидать не стоило.

Поэтому просто запомните две вещи.

Первая: ИИ — это общественное место. Всё, что вы ему говорите, могут услышать другие. Не пишите в нейросеть ничего личного, конфидециального.

Вторая: если очень надо поработать с чувствительными данными — ищите корпоративные решения внутри компании или консультируйтесь с теми, кто за это отвечает. А если вы обычный пользователь и просто боитесь за свои личные данные — пользуйтесь российскими сервисами и не кидайте туда паспорта.

И да, если хотите быть в курсе, как меняется мир ИИ и при этом не потерять свои данные — подписывайтесь на канал. Мы тут каждый день разбираем такие штуки. Без паники, с юмором и по делу.

#безопасность #нейросети2026 #защитаданных #приватность #иишпаргалка #лайфхаки #советы