Лично в моем бизнесе нет секретов, которые стоит красть.
Всё, что я знаю — можно повторить. Все методики и инструменты есть в книгах. Моё преимущество не в информации, а в скорости: пока кто-то решит меня копировать, я буду уже в другой точке. Поэтому мне выгоднее лететь, а не строить заборы. Оборона — это стагнация. А сейчас стагнация = смерть.
Но я внедряю ИИ в чужие бизнес-процессы. И слышу один и тот же вопрос: «А наши данные точно никуда не утекут?»
Стратегические сессии. Финансовые модели. Конфликты в команде. Всё это проходит через ИИ. И страх понятен. Только большинство боится не того.
Два режима — одно правило
Я разобрал актуальные политики трёх главных игроков — OpenAI, Anthropic, Google. Все устроены по одной схеме. Проще, чем кажется.
Потребительские тарифы — бесплатные и личные подписки.
ChatGPT Free и Plus, Claude Free/Pro/Max, бесплатный Gemini. Ваши переписки по умолчанию могут использоваться для улучшения моделей. Отключается в настройках — но по умолчанию включено.
Бизнесовые — API, корпоративные тарифы, облачные решения.
ChatGPT Enterprise, Claude for Work, Google Workspace. Данные не идут в обучение — закреплено договорами.
Вот и всё правило: тариф определяет защиту. Не название компании, не страна, не логотип.
Чего бояться не стоит
Мифы.
Их важно убрать — они съедают внимание, которое нужно для реальных вещей.
«Конкурент спросит ChatGPT и получит мою стратегию».
Один мой знакомый полгода целенаправленно «кормил» ChatGPT информацией о своём продукте. Хотел войти в «глобальную базу знаний» — чтобы ИИ начал рекомендовать его компанию. Полгода разговоров, описаний, кейсов.
К его разочарованию, ChatGPT так и не начал его узнавать. Ни через месяц, ни через шесть. Стоило ему зайти с чужого аккаунта.
Так работает технология. Модель не складирует разговоры в картотеку. Она учится на миллиардах примеров, и один диалог — капля, которая не меняет вкус воды. Человек не смог пропихнуть свой продукт специально — за полгода. Шансы, что ваша стратегия случайно всплывёт в чьём-то ответе — околонулевые.
Миф номер два
«ИИ-компании продают данные».
У OpenAI и Anthropic в политиках прямо: данные не продаются третьим лицам. Их бизнес-модель — подписки и API, не торговля данными.
Миф номер три
«ИИ запоминает всё навсегда».
Модель не «помнит» разговор. Это не база данных с поиском. Это статистическая машина, которая генерирует текст.
Правда, если бы на этом всё заканчивалось, статью можно было бы не писать.
Чего бояться стоит
Мифы — про модель. Про то, что происходит внутри ИИ. Там действительно безопасно. Но ваши данные — это не только модель. Это серверы, люди и законы. И вот тут начинается настоящее.
Данные лежат на чужих серверах.
Вы написали в ChatGPT — текст физически сохранился на серверах компании. Даже если он никогда не пойдёт в обучение. У Anthropic при включённом обучении хранение — до 5 лет, при выключенном — до 30 дней. У OpenAI даже в бизнес-тарифах есть логи мониторинга — до 30 дней.
Серверы можно взломать. Данные можно запросить по суду. В 2025-м OpenAI раскрыла, что по судебному ордеру обязана хранить часть данных до завершения разбирательства.
Что это значит: сотрудник вставил в чат клиентскую базу с телефонами — данные лежат на серверах в США. Не растворились. Лежат. Текстом. На чужом железе.
Живые люди читают чаты.
Google прямо пишет в политике Gemini: часть диалогов проверяется реальными ревьюерами. Хранение таких чатов — до трёх лет. У OpenAI и Anthropic акцент на автоматику, но при подозрении на нарушение политик — чаты тоже могут быть просмотрены людьми.
HR-менеджер обсуждает в Gemini увольнение конкретного человека с деталями конфликта — это не приватный разговор с машиной. Это текст, который может прочитать живой человек.
Закон.
Персональные данные — имена, телефоны, паспорта — защищены 152-ФЗ в России, GDPR в Европе. Сотрудник вставил в бесплатный ChatGPT список клиентов с контактами — он передал персональные данные третьей стороне. Без согласия. Без договора. Конкретное основание для штрафа. И отвечает не сотрудник — отвечает компания.
Обратного пути нет.
Данные попали в обучающую выборку — вытащить нельзя. Можно отключить обучение на будущее, удалить чат. Но то, что уже использовано — использовано. Anthropic об этом предупреждает прямо.
Люди боятся, что ИИ слишком умный. А рисковать стоит из-за того, что инфраструктура вокруг него — обычная. Серверы, логи, люди, суды.
А теперь — честный вопрос к себе
Всё выше — реальные риски. Но прежде чем строить периметр обороны, остановитесь.
Вот что интересно. Финансовая информация большинства российских компаний и так лежит в открытом доступе. Специализированные сервисы, реестры, даже TenChat. Выручка, прибыль, долги — всё видно. Кто сколько зарабатывает — давно не секрет, рынок зарплат прозрачен. То, что многие считают «конфиденциальной финансовой информацией», находится за пять минут. Без всякого ИИ.
Да, есть те, кому нужно относиться к утечкам предельно серьёзно. Крупные корпорации с долей рынка, которую реально отъесть. Государственные структуры. Стартапы с ноу-хау, на которое можно получить патент.
Но если вы управляете компанией на 30 человек и продаёте услуги — ваши данные действительно настолько ценны? Кто-то будет взламывать серверы OpenAI ради вашей клиентской базы?
Правила нужны. Но масштаб защиты должен соответствовать масштабу реальной угрозы, а не масштабу тревожности. Мнительность часто маскируется под осторожность. Осторожность — под стратегию. И компания не внедряет инструмент, который мог бы дать полгода форы, потому что основатель «не уверен насчёт данных».
Действительно ли твоя компания — цель того же уровня, что лидеры отрасли и госкорпорации?
Или твоя мнительность просто ограничивает тебя?
Что чувствительно, а что нет
Не всё опасно. Простой фильтр.
Не вставлять в потребительские ИИ-сервисы: персональные данные клиентов и сотрудников — имена вместе с телефонами, паспортами, адресами. Условия конкретных контрактов с суммами. Кадровые решения с именами. Пароли, токены, ключи доступа.
Обсуждать спокойно: бизнес-задачи в обезличенном виде. Стратегические вопросы без привязки к лицам и суммам. Идеи, гипотезы, концепции. Тексты, презентации, маркетинг.
Разница — в конкретных именах, документах и цифрах контрактов. Нет персональных данных в запросе — нет проблемы.
Как организовать работу
Разделяй потоки. Чувствительное — в бизнес-тарифы или API с договором. Остальное — личные подписки с выключенным обучением.
Напишите команде пять правил на одну страницу. Что нельзя. На каком тарифе работаем. Что делать, если отправил лишнее — удалить чат, это исключит данные из будущего обучения.
Пересматривайте раз в квартал. Политики меняются тихо. В 2025-м Anthropic изменил настройки по умолчанию — раньше данные не использовались для обучения, пока вы сами не разрешите. Стало наоборот: используются, пока вы сами не запретите. Многие узнали об этом, когда их данные уже были в работе.
Безопасность — не тумблер. Это спектр. И на нём есть точка, где риски минимальны, а выигрыш в скорости — огромен. Задача не в том, чтобы отказаться от инструмента. Задача — найти эту точку.
Пока одни спорят, безопасен ли ИИ — другие уже настроили его под себя и улетели.
#ии #данные #безопасность #бизнес #стратегия