Признавайтесь, вы тоже хоть раз посреди ночи жаловались нейросети на жизнь, просили расшифровать странный анализ крови или искали у новой программы утешения после ссоры с партнером? Мы привыкли считать окно чата «комнатой психологической разгрузки», где можно выговориться без стеснения. Но что, если эта «комната» на самом деле — проходной двор? Давайте разберемся, где хранятся ваши тайны, почему «собеседник» тупеет на глазах и как не стать героем нового слитого архива.
Ваш цифровой психолог стучит? Добро пожаловать в реальность
Для многих ChatGPT, Gemini, DeepSeek, Copilot и другие чат-боты стали чем-то вроде «карманного жилета», в который можно поплакаться в любое время суток. И это действительно работает: количество запросов на психологические и медицинские темы бьет рекорды. Например, только за полгода число людей, сдавших ИИ свои анализы, выросло в 8 раз!
Казалось бы, круто: не надо платить за психолога, не надо никого напрягать. Но есть нюанс. Генеральный директор OpenAI Сэм Альтман еще летом 2025 года честно признался: ваши переписки с ChatGPT не являются юридически конфиденциальными. То есть в отличие от разговора с врачом или адвокатом, здесь нет никакой тайны. Компания может выдать ваш диалог по запросу суда, а сам робот имеет право проанализировать ваш рассказ, чтобы в будущем лучше понимать других людей.
Более того, OpenAI не скрывает: если нейросеть заподозрит, что вы замышляете преступление, данные могут улететь в правоохранительные органы даже без предварительного запроса. А в 2026 году в ChatGPT были найдены серьезные уязвимости, позволявшие хакерам при помощи скрытых команд воровать письма из Gmail и файлы из облачных хранилищ жертв.
Свежий звоночек: Google тихо «подтер» формулировку
Пока мы тут шутим про болтливых роботов, большие компании вносят правки в пользовательские соглашения, которые заставляют специалистов по кибербезопасности хвататься за сердце. Буквально сегодня, 12 мая 2026 года, разгорелся скандал вокруг браузера Chrome.
Внимательные пользователи (слава Reddit!) заметили, что Google внезапно изменила описание работы встроенного искусственного интеллекта Gemini Nano. Знаете, раньше там красовалась успокаивающая фраза: «ИИ работает на вашем устройстве, данные никуда не отправляются». Теперь её нет. Просто исчезла. Как слезы под дождем из старого фильма.
В ответ на возмущение в Google заявили, что сам принцип не поменялся: Gemini Nano всё так же шуршит процессорами локально. Мол, это мы просто инструмент для разработчиков (Prompt API) запустили, теперь сайты могут общаться с вашим ИИ в браузере, вот и пришлось убрать категоричное «никуда не уходит», потому что технически ответы передаются сайту. Но осадочек, как говорится, остался.
Почему это важно для нас? Да потому что это идеальная иллюстрация паранойи, которая перестает быть паранойей. Если раньше вам прямым текстом гарантировали приватность, а сегодня просто бесшумно стирают эту строчку из справки — где гарантия, что завтра ваши «локальные» секреты не утекут в чей-нибудь дата-центр? Получается, что даже режим «всё на устройстве» — это немного лукавство. Сайт, который вы открыли, потенциально может «спросить» у вашего браузера что-то эдакое.
Так что теперь к нашему списку «Не писать ИИ лишнего» добавляется еще один пункт: следите за руками. Следите за обновлениями и формулировками компаний. Бесшумное исчезновение фразы о конфиденциальности — это звонок громче пожарной сигнализации.
«Я просто почищу историю!» - Мечтать не вредно
Окей, скажете вы, сейчас я удалю этот неловкий диалог — и дело с концом. Но и тут подвох кроется в деталях. Да, в мае 2025 года OpenAI ввела «временные чаты», которые не сохраняются в истории и не идут на обучение модели. Однако по решению федерального суда компания обязана хранить даже такие «удаленки» до 30 дней на своих серверах.
Что это значит? Это значит, что ваш запрос «а как быстро и безболезненно развестись с женой, чтобы она не забрала собаку» физически существует на диске где-то в дата-центре. И если случится утечка, он может всплыть.
Кстати, об утечках. Это не теория, а наша новая цифровая реальность. Специалисты по кибербезопасности уже не раз ловили злоумышленников, которые через подключенные к ChatGPT сервисы (Gmail, Google Drive, Dropbox) воровали корпоративные документы и личную переписку. Крупные компании, такие как Samsung, уже в 2023 году полностью запретили своим сотрудникам пользоваться публичными нейросетями после того, как те по ошибке загрузили исходный код чипов прямо в чат-бот.
«Эй, ChatGPT, ты что, отупел?» — Научное объяснение
Теперь о насущном: почему наш цифровой друг, который еще вчера писал диссертации, сегодня путает «тся» и «ться» и несет какую-то откровенную чушь. Многие замечают, что ChatGPT стал похож на подростка, который вырос, но читать так и не полюбил.
У этого явления есть научное название — «дрейф модели» (model drift). Исследователи из Стэнфорда и Беркли выяснили: когда разработчики пытаются «починить» или улучшить одну способность ИИ, у него внезапно «отваливается» другая. Например, в одном из тестов математические способности GPT-4 рухнули с 84% до 51% за какие-то пару месяцев.
Почему так происходит? Представьте, что вы учите повара готовить только суши. В какой-то момент он разучится жарить обычную яичницу. Так и здесь. Модели становятся настолько сложными, что их тонкая настройка напоминает ходьбу по канату.
Добавьте к этому «преждевременную генерацию»: в длинных диалогах робот пытается угадать, что вы хотите, еще до того, как вы закончили предложение. Он опирается на свой первый (часто ошибочный) ответ и в итоге скатывается в откровенные фантазии и «галлюцинации». Так что если бот внезапно начал писать вам с ошибками — он не разлюбил вас, у него просто «заводские настройки» слегка сбились.
Инструкция по выживанию: как дружить с ИИ без последствий
Полностью уйти в «цифровой лес» и удалиться из Сети вряд ли получится, но подстелить соломку мы можем.
- Относитесь к чату как к публичному форуму. Эксперты по кибербезопасности в один голос советуют: не пишите боту ничего такого, что вы бы не хотели увидеть завтра на главной странице Яндекса. Это касается паспортных данных, адресов, финансовых сводок и интимных медицинских подробностей.
- Отключите память и обучение. Это база, которую делают единицы. Зайдите в настройки своего аккаунта (например, в ChatGPT это «Data Controls»), найдите галочку «Использовать мои данные для обучения моделей» и смело ее снимите. Если этого не сделать, ваша история о несчастной любви может стать частью «обучающей выборки». Проще говоря, из ваших страданий робота будут учить утешать кого-то другого.
- Включайте «Режим инкогнито». Используйте временные чаты, если просто хотите поговорить «в потоке».
- Обезличивайте чувствительные данные. Если вам очень нужно спросить про договор или диагноз, меняйте имена, цифры и названия компаний на «Условный Василий» и «ООО Ромашка». Нейросети для анализа контекста все равно, а вам спокойнее.
Цифровой друг или болтливый предатель?
Искусственный интеллект — это потрясающий инструмент, который может заменить нам справочную, репетитора и даже второго пилота. Но пытаться сделать из него духовника — та еще лотерея.
Ваши тайны могут годами лежать на чужом сервере, быть использованы для обучения новой версии GPT-6 или просто утечь в Сеть по соседству с рецептом шарлотки. Поэтому, когда в следующий раз захочется излить токсичному боссу все, что вы о нем думаете, помните: как говорил персонаж одного старого сериала, «болтливый ИИ — находка для шпиона».
Разобраться в политике конфиденциальности роботов порой сложнее, чем собрать шкаф из IKEA в одиночку.
А как часто вы проверяете настройки приватности в своих любимых сервисах? Делитесь лайфхаками и опасениями в комментариях!
На десерт (пока робот не стащил)
Понравилось разоблачение? Если захочется сказать «спасибо» автору не только лайком, а чем-то вкусным — я шоколадки люблю и от угощения не откажусь :) Это мелочь, а мне приятно; и поверьте, после таких тем глюкоза очень нужна!
Вот мой вишлист на Wildberries: Шоколадка — я обрадуюсь как ребёнок :)