Кому выгодны ваши диалоги с ИИ? Откровенно о сборе данных, утечках и простых шагах, чтобы защитить себя.
Введение: откровенность, о которой мы не задумываемся
Каждый раз, задавая вопрос ChatGPT, DeepSeek или другой нейросети, мы невольно открываем им часть своей жизни. Боли, идеи, рабочие файлы — всё это попадает в цифровое пространство.
Но задумываемся ли мы, что происходит с этими данными дальше?
В прошлый раз мы говорили о конкретном мессенджере MAX. Сегодня поднимем планку выше: разберем общие риски приватности в любых ИИ-сервисах. Куда утекают данные, кто их читает и главное — как защитить себя.
- Что на самом деле происходит с нашими данными
Исследования 2025-2026 годов рисуют тревожную картину. Восемь из десяти популярных нейросетей собирают пользовательские данные и могут делиться ими с третьими лицами. За год (с 2024 по 2025) объем конфиденциальной информации, отправляемой в общедоступные нейронные сети, вырос в 30 раз.
Коммерческая тайна и секреты производства: Этот массив данных включает в себя не только личные файлы, но и коммерческую тайну, исходный код, финансовые и бухгалтерские документы, персональные данные клиентов и сотрудников.
Смертельные угрозы в соцсетях: Исследователь безопасности Сэм Джайн обнаружил в социальных сетях, используемых для обучения популярных моделей, миллионы изображений с персональными данными: фотографии паспортов, водительских прав, кредитных карт, свидетельств о рождении и даже военных документов.
Диалоги под прицелом: Судебные процессы могут обязать OpenAI бессрочно хранить удаленные диалоги пользователей, не уничтожая их по запросу. А через поисковые системы иногда можно найти сотни приватных чат-сессий, включая переписки госслужащих и топ-менеджеров крупных компаний.
- Главная уязвимость — это мы сами
Парадокс в том, что зачастую самой большой угрозой для нашей приватности становимся не хакеры, а мы сами.
Ключевым источником утечек стали сотрудники компаний. В 2025 году они активно использовали ChatGPT и аналогичные сервисы для решения рабочих задач, загружая в них конфиденциальные данные — от таблиц с персональными данными клиентов до исходного кода. По данным опроса онлайн-сервиса по поиску работы, каждый пятый сотрудник в России делился конфиденциальной информацией с нейросетями.
Мы пишем нейросети всё, не задумываясь о последствиях. Один неосторожный запрос — и личная информация может быть скомпрометирована.
- Как это работает: законы, политики и уязвимости
Политики конфиденциальности: По умолчанию ChatGPT и другие сервисы могут использовать ваши диалоги для обучения своих моделей. В бесплатных версиях это часто работает именно так, в платных — условия могут быть строже.
Технические уязвимости: Доступ к базам данных с миллионами сообщений, содержащих историю чатов, личные данные и пароли от социальных сетей, иногда оказывается в открытом доступе.
Законодательство не успевает: Регуляторы только начинают адаптировать законы под новые реалии. Например, в Европе разрабатывают поправки к GDPR, которые затронут и обработку данных в системах ИИ. Но пока законы меняются, риски остаются.
- Практические шаги: как защитить себя уже сегодня
Эта информация не для того, чтобы запугать. Она для того, чтобы помочь действовать.
Изучите настройки приватности. В OpenAI, например, есть раздел Data Controls, где можно отключить использование ваших диалогов для обучения модели (Settings → Data Controls → «Improve the model for everyone» → OFF). Потратьте 5 минут — и ваши данные будут в большей безопасности.
Фильтруйте информацию. Прежде чем отправлять что-либо в нейросеть, мысленно уберите персональные данные (имена, адреса, номера телефонов, данные паспорта). Лучше «зашифровать» их или заменить на нейтральные аналоги.
Используйте временные чаты. В некоторых сервисах есть функция «временного чата» (Temporary Chat), диалоги из которого не сохраняются в историю и не используются для обучения. Это отличный инструмент для разовых или чувствительных запросов.
Соблюдайте базовую гигиену.
Включите двухфакторную аутентификацию.
Используйте разные и сложные пароли для разных сервисов.
Всегда проверяйте URL-адрес, чтобы не попасть на фишинговый сайт.
Заключение: контроль в ваших руках
Бояться нейросетей не стоит. Но и относиться к ним как к безобидной игрушке — тоже не стоит.
Приватность в эпоху ИИ — это не данность, а навык. Понимая риски и применяя простые правила, вы можете использовать всю мощь нейросетей, не жертвуя своей безопасностью. Как и в любой другой сфере, главное — знать и соблюдать простые правила цифровой гигиены.
👉 Подписывайтесь на канал, чтобы не пропустить новые статьи. Будем разбираться в мире ИИ вместе — честно, полезно и без паники.