Найти в Дзене
🤯НЕЛЕГКИЙ БИЗНЕС

Опасность GPT CHAT. Где миф, а где реальность.

Лично в моем бизнесе нет секретов, которые стоит красть.
Всё, что я знаю — можно повторить. Все методики и инструменты есть в книгах. Моё преимущество не в информации, а в скорости: пока кто-то решит меня копировать, я буду уже в другой точке. Поэтому мне выгоднее лететь, а не строить заборы. Оборона — это стагнация. А сейчас стагнация = смерть.
Но я внедряю ИИ в чужие бизнес-процессы. И слышу
Оглавление

Опасность GPT CHAT. Где миф, а где реальность.
Опасность GPT CHAT. Где миф, а где реальность.

Лично в моем бизнесе нет секретов, которые стоит красть.

Всё, что я знаю — можно повторить. Все методики и инструменты есть в книгах. Моё преимущество не в информации, а в скорости: пока кто-то решит меня копировать, я буду уже в другой точке. Поэтому мне выгоднее лететь, а не строить заборы. Оборона — это стагнация. А сейчас стагнация = смерть.

Но я внедряю ИИ в чужие бизнес-процессы. И слышу один и тот же вопрос: «А наши данные точно никуда не утекут?»

Стратегические сессии. Финансовые модели. Конфликты в команде. Всё это проходит через ИИ. И страх понятен. Только большинство боится не того.

Два режима — одно правило

Я разобрал актуальные политики трёх главных игроков — OpenAI, Anthropic, Google. Все устроены по одной схеме. Проще, чем кажется.

Потребительские тарифы — бесплатные и личные подписки.

ChatGPT Free и Plus, Claude Free/Pro/Max, бесплатный Gemini. Ваши переписки по умолчанию могут использоваться для улучшения моделей. Отключается в настройках — но по умолчанию включено.

Бизнесовые — API, корпоративные тарифы, облачные решения.

ChatGPT Enterprise, Claude for Work, Google Workspace. Данные не идут в обучение — закреплено договорами.

Вот и всё правило: тариф определяет защиту. Не название компании, не страна, не логотип.

Чего бояться не стоит

Мифы.

Их важно убрать — они съедают внимание, которое нужно для реальных вещей.

«Конкурент спросит ChatGPT и получит мою стратегию».

Один мой знакомый полгода целенаправленно «кормил» ChatGPT информацией о своём продукте. Хотел войти в «глобальную базу знаний» — чтобы ИИ начал рекомендовать его компанию. Полгода разговоров, описаний, кейсов.

К его разочарованию, ChatGPT так и не начал его узнавать. Ни через месяц, ни через шесть. Стоило ему зайти с чужого аккаунта.

Так работает технология. Модель не складирует разговоры в картотеку. Она учится на миллиардах примеров, и один диалог — капля, которая не меняет вкус воды. Человек не смог пропихнуть свой продукт специально — за полгода. Шансы, что ваша стратегия случайно всплывёт в чьём-то ответе — околонулевые.

Миф номер два

«ИИ-компании продают данные».

У OpenAI и Anthropic в политиках прямо: данные не продаются третьим лицам. Их бизнес-модель — подписки и API, не торговля данными.

Миф номер три

«ИИ запоминает всё навсегда».

Модель не «помнит» разговор. Это не база данных с поиском. Это статистическая машина, которая генерирует текст.

Правда, если бы на этом всё заканчивалось, статью можно было бы не писать.

Чего бояться стоит

Мифы — про модель. Про то, что происходит внутри ИИ. Там действительно безопасно. Но ваши данные — это не только модель. Это серверы, люди и законы. И вот тут начинается настоящее.

Данные лежат на чужих серверах.

Вы написали в ChatGPT — текст физически сохранился на серверах компании. Даже если он никогда не пойдёт в обучение. У Anthropic при включённом обучении хранение — до 5 лет, при выключенном — до 30 дней. У OpenAI даже в бизнес-тарифах есть логи мониторинга — до 30 дней.

Серверы можно взломать. Данные можно запросить по суду. В 2025-м OpenAI раскрыла, что по судебному ордеру обязана хранить часть данных до завершения разбирательства.

Что это значит: сотрудник вставил в чат клиентскую базу с телефонами — данные лежат на серверах в США. Не растворились. Лежат. Текстом. На чужом железе.

Живые люди читают чаты.

Google прямо пишет в политике Gemini: часть диалогов проверяется реальными ревьюерами. Хранение таких чатов — до трёх лет. У OpenAI и Anthropic акцент на автоматику, но при подозрении на нарушение политик — чаты тоже могут быть просмотрены людьми.

HR-менеджер обсуждает в Gemini увольнение конкретного человека с деталями конфликта — это не приватный разговор с машиной. Это текст, который может прочитать живой человек.

Закон.

Персональные данные — имена, телефоны, паспорта — защищены 152-ФЗ в России, GDPR в Европе. Сотрудник вставил в бесплатный ChatGPT список клиентов с контактами — он передал персональные данные третьей стороне. Без согласия. Без договора. Конкретное основание для штрафа. И отвечает не сотрудник — отвечает компания.

Обратного пути нет.

Данные попали в обучающую выборку — вытащить нельзя. Можно отключить обучение на будущее, удалить чат. Но то, что уже использовано — использовано. Anthropic об этом предупреждает прямо.

Люди боятся, что ИИ слишком умный. А рисковать стоит из-за того, что инфраструктура вокруг него — обычная. Серверы, логи, люди, суды.

А теперь — честный вопрос к себе

Всё выше — реальные риски. Но прежде чем строить периметр обороны, остановитесь.

Вот что интересно. Финансовая информация большинства российских компаний и так лежит в открытом доступе. Специализированные сервисы, реестры, даже TenChat. Выручка, прибыль, долги — всё видно. Кто сколько зарабатывает — давно не секрет, рынок зарплат прозрачен. То, что многие считают «конфиденциальной финансовой информацией», находится за пять минут. Без всякого ИИ.

Да, есть те, кому нужно относиться к утечкам предельно серьёзно. Крупные корпорации с долей рынка, которую реально отъесть. Государственные структуры. Стартапы с ноу-хау, на которое можно получить патент.

Но если вы управляете компанией на 30 человек и продаёте услуги — ваши данные действительно настолько ценны? Кто-то будет взламывать серверы OpenAI ради вашей клиентской базы?

Правила нужны. Но масштаб защиты должен соответствовать масштабу реальной угрозы, а не масштабу тревожности. Мнительность часто маскируется под осторожность. Осторожность — под стратегию. И компания не внедряет инструмент, который мог бы дать полгода форы, потому что основатель «не уверен насчёт данных».

Действительно ли твоя компания — цель того же уровня, что лидеры отрасли и госкорпорации?

Или твоя мнительность просто ограничивает тебя?

Что чувствительно, а что нет

Не всё опасно. Простой фильтр.

Не вставлять в потребительские ИИ-сервисы: персональные данные клиентов и сотрудников — имена вместе с телефонами, паспортами, адресами. Условия конкретных контрактов с суммами. Кадровые решения с именами. Пароли, токены, ключи доступа.

Обсуждать спокойно: бизнес-задачи в обезличенном виде. Стратегические вопросы без привязки к лицам и суммам. Идеи, гипотезы, концепции. Тексты, презентации, маркетинг.

Разница — в конкретных именах, документах и цифрах контрактов. Нет персональных данных в запросе — нет проблемы.

Как организовать работу

Разделяй потоки. Чувствительное — в бизнес-тарифы или API с договором. Остальное — личные подписки с выключенным обучением.

Напишите команде пять правил на одну страницу. Что нельзя. На каком тарифе работаем. Что делать, если отправил лишнее — удалить чат, это исключит данные из будущего обучения.

Пересматривайте раз в квартал. Политики меняются тихо. В 2025-м Anthropic изменил настройки по умолчанию — раньше данные не использовались для обучения, пока вы сами не разрешите. Стало наоборот: используются, пока вы сами не запретите. Многие узнали об этом, когда их данные уже были в работе.

Безопасность — не тумблер. Это спектр. И на нём есть точка, где риски минимальны, а выигрыш в скорости — огромен. Задача не в том, чтобы отказаться от инструмента. Задача — найти эту точку.

Пока одни спорят, безопасен ли ИИ — другие уже настроили его под себя и улетели.

#ии #данные #безопасность #бизнес #стратегия