Больше 7 млн россиян ежедневно пользуются чат-ботами. Согласно новому исследованию Mediascope, самые популярные в нашей стране сервисы — Алиса AI и китайский DeepSeek. Реже соотечественники общаются с GigaChat и ChatGPT.
Чем лучше ИИ справляется с задачами, тем больше притупляется наша бдительность. Так, 20% россиян делились с нейросетями конфиденциальной информацией, а это — грубое нарушение политики безопасности во многих организациях.
Сотрудники делают это автоматически и не задумываются, какие данные из-за их действий попадают в сеть. Обезличенность инструмента и чрезмерное доверие нейросетям мешают оценивать действия трезво.
Ведь даже если пользователи чат-ботов и знают о громких инцидентах с утечками данных, то чаще всего не воспринимают их на свой счет. Угроза кажется далекой и не касающейся лично их документов, переписок или других важных сведений.
Но риски использования ИИ существуют и они вполне конкретные для каждого из нас. В этой статье мы разбираем 5 типов информации, которые нельзя раскрывать нейросетям, если вы не хотите нанести вред себе, своему бизнесу и клиентам.
Почему важно соблюдать осторожность при общении с GPT
Привычный интерфейс, реальная помощь в решении рабочих и жизненных вопросов, поддерживающая обратная связь — множество мелочей при взаимодействии с чат-ботами вызывают доверие и чувство безопасности.
В итоге границы в общении с нейросетями размываются. Многие не замечают, как начинают регулярно отправлять в чат с AI конфиденциальную информацию, которую так легко не доверили бы живому собеседнику.
Однако каждый раз, когда вы общаетесь с виртуальным помощником — будь то чат-бот или ИИ-агент, — важно помнить о мерах предосторожности и потенциальных рисках. Связано это с несколькими факторами:
→ AI-модели обучаются на пользовательских данных
Один из примеров — политика OpenAI. Компания открыто говорит, что весь контент, который вы отправляете в ChatGPT, может использоваться для улучшения и обучения модели.
Поэтому все тексты, таблицы и документы, которые вы отправляете в чат, перестают быть исключительно внутренней информацией. Нейросеть может не просто учиться на основе этих данных, но и использовать их при ответе другим людям.
Конечно, вероятность, что часть именно вашего промпта будет выдана кому-то другому, чрезвычайно мала. Это больше теоретический риск, чем гарантированная угроза. Но такой сценарий нельзя исключать.
Важно также учесть, что удаление переписок по запросу пользователя происходит не сразу. В случае все того же ChatGPT процесс занимает до 30 дней. Но и этот срок может быть увеличен, если OpenAI «должна хранить чат дольше в целях безопасности или по юридическим причинам». Всё это время ваши данные будут доступны системе.
→ Данные могут попасть к мошенникам
Информация, которую вы передаете нейросетям, хранится на сторонних сервисах. За ее сохранность отвечают неподотчетные вам сотрудники. И вы как пользователь не можете дополнительно на это повлиять. Даже за большие деньги.
А утечки данных случаются регулярно, несмотря на все усилия со стороны техногигантов по обеспечению информационной безопасности своих ИИ-сервисов. Потенциально в руки третьих лиц могут попасть:
- Персональные данные клиентов или сотрудников
- Финансовые данные — реквизиты, детали платежей, номера карт
- Коммерческая тайна, детали договоров, внутренних документов и бизнес-стратегий
- Переписки, отчеты, планы, аналитика
Даже если сами пользователи на эти утечки внимания не обращают, то киберпреступники тщательно изучают попавшие к ним данные. В том числе используют для этого возможности ИИ.
Все это может вылиться в шантаж, компрометацию клиентов и деловых партнеров, утрату репутации, потерю ценных наработок, а также сопровождаться финансовыми убытками.
→ Данные могут попасть к конкурентам
Когда вы отправляете нейросети материалы для анализа и доработки, то делитесь с ИИ в том числе и своей экспертизой. Это могут быть уникальные методики, фрагменты стратегий или идеи, которые отличают именно ваш бизнес.
Если эти данные окажутся у посторонних, то вы рискуете не просто скомпрометировать информацию, но потерять конкурентное преимущество. Другие участники рынка могут воспользоваться вашими наработками и опередить с реализацией решения.
Если вы не следите за новостями, то можете даже не узнать, что произошло. Просто в какой-то момент чужая рекламная кампания, стратегия или продукт станут подозрительно похожими на ваш. Но сделать с этим уже ничего не получится.
Какие данные нельзя раскрывать GPT
Общаясь с нейросетями, мы часто думаем только о задаче, которую нужно решить здесь и сейчас. Что в этом случае может пойти не так и какие есть риски, связанные с ИИ, мы рассказали в предыдущем блоке. А в этом говорим о том, какую именно информацию нельзя раскрывать чат-ботам и AI-агентам.
Персональные данные
Личные данные — свои собственные, коллег, клиентов, бизнес-партнеров — это та категория информации, которую нельзя передавать нейросетям ни при каких обстоятельствах. Казалось бы, это очевидно.
Но будучи погружены в рутину, когда вы решаете несколько задач одновременно и используете ИИ, чтобы ускорить работу, очень легко потерять бдительность. Сtrl C → Сtrl V — и вот уже в промпте оказываются ФИО, контактные и даже паспортные данные.
❗Поэтому важно запомнить:
Любые сведения, которые позволяют идентифицировать конкретного человека, — его ФИО, контакты, дата рождения, номер паспорта, фото, адрес проживания — не должны попадать в запросы к нейросети.
Чтобы обезопасить себя и компанию, вы можете взять за правило простую проверку: перед тем, как отправить промпт, просмотрите текст и задайте себе вопрос: можно ли это отправить в общий чат с незнакомыми людьми? Если вы сомневаетесь, то лучше замените данные на условные обозначения.
Коммерческая информация
Представьте: вы разрабатываете новый продукт и просите GPT сделать текст презентации убедительнее для инвесторов. Или готовите отчет для внутреннего мероприятия. Вводите в чат-бот название компании, данные о клиентах, бизнес-модель. Это ведь всего лишь черновик.
Но как только такая информация оказывается у ИИ, то вы теряете над ней контроль. В чужих руках она может превратиться в инструмент давления или интернет-мошенничества. Всего один промпт может лишить вас важного контракта, клиента или конкурентного преимущества.
❗Поэтому никогда не передавайте нейросетям:
- Финансовые показатели, включая прибыль, убытки, маржинальность
- Условия спецпредложений для конкретных клиентов
- Стратегии, дорожные карты, планы запуска продуктов
- Данные о партнерах, поставщиках и подрядчиках, в том числе условия контрактов
- Внутренние документы, регламенты, протоколы встреч, экспертные материалы
В качестве проверки перед отправкой промпта можно задать себе вопрос: что будет, если это увидит конкурент или мошенник? Также имеет смысл изначально формулировать запрос на уровне принципов, а не деталей. Например, «Как улучшить ценностное предложение для enterprise-клиентов?» вместо упоминания конкретных компаний и показателей.
Доступы и учетные данные
Доступы — самый уязвимый тип информации, который можно отправить в чат-бот. Логины, пароли, коды подтверждения — все это ключи от ваших систем. И если они утекут, последствия могут быть губительными.
Проблема в том, что такие данные часто передаются нейросетям в самых обыденных ситуациях. Например, пользователь хочет показать боту текст ошибки при авторизации и случайно оставляет логин и пароль. Или путем подбора пробует восстановить доступ к аккаунту, отдавая нейросети часть учетных данных.
На фоне развития OSINT-инструментов и AI-агентов, которые могут самостоятельно выполнять действия в различных системах без участия человека, скомпрометированные доступы могут привести к полной потере контроля над сервисами.
❗Поэтому важно следить, чтобы в рамках вашего запроса к нейросети не фигурировали:
- Пароли, PIN-коды, коды из SMS
- Ключи SSH, доступы к серверам и хостингам
- Данные из систем управления платежами,
- Конфигурации интеграций
- Части URL с токенами и ID сессий
Чтобы защитить свои данные, удаляйте из запроса все, кроме текста самой ошибки. Аналогично со скриншотом из системы — все, что потенциально может быть использовано для попытки входа в аккаунт, следует замаскировать или удалить.
Новые продукты и разработки
Информация о будущих продуктах и внутренних разработках определяет, чем ваша компания будет отличаться от конкурентов завтра. И часто эти данные оказываются в промптах: пользователи просят докрутить идею, оценить риски, сделать презентацию.
Один необдуманный запрос — и в сеть утекают уникальные идеи, архитектура или бизнес-логика будущего решения. Если эти данные окажутся доступными третьим лицам, вы рискуете потерять преимущество, над которым команда работала месяцами.
❗Поэтому важно помнить, что AI-модели обучаются на пользовательских данных. Это означает, что фрагменты вашей разработки или весь проект целиком могут стать частью ее внутреннего опыта. А затем появиться в ответах, в том числе конкурентам.
Чтобы защитить бизнес, никогда не передавайте нейросети:
- Описания новых функций, которые еще не были анонсированы
- Концепции продуктов, MVP, прототипы
- Внутренние методики, подходы, тендерные материалы
- Драфт-документы
- Архитектуру технических решений
Если вам все же нужно использовать ИИ для работы с такими материалами — делайте это внутри корпоративной, безопасной среды (например, в BitrixGPT в защищенном контуре) либо предварительно полностью обезличивайте информацию.
Медицинские данные
Пункт не про бизнес напрямую (если только вы не сотрудник медицинского учреждения), но он не менее важен. Ведь речь здесь идет не о прибыли, а о здоровье — активе, потеря которого не компенсируется ростом выручки.
Проблема здесь не только в потере приватности из-за потенциальных утечек. Главное — это высокая цена ошибки. Медицинские данные требуют верификации, а нейросеть может неправильно расшифровать результаты анализов или даже придумать диагноз.
❗Поэтому важно помнить, что чат-бот (даже самый продвинутый) — это не врач и не медицинский инструмент. Это статистическая модель, которая просто подбирает наиболее вероятный следующий фрагмент текста.
Да, успешные кейсы использования ИИ в медицине есть. Но сначала сами промпты, а затем и ответы всегда проверяются профессионалами, при этом нейросети используются в контролируемой среде.
Чтобы защитить себя и близких, никогда не передавайте нейросети:
- Диагнозы, выписки, результаты анализов
- Фотографии медицинских документов или снимков
- Данные о лечении, медикаментах, операциях
- Персональные сведения пациентов, если вы работаете в медицинской сфере
Правило для подстраховки здесь простое: любые медицинские вопросы нужно обсуждать с врачом, а лучше — с несколькими. Вы можете что-то уточнить у нейросети, но обязательно проверьте эти данные на приеме у профессионала.
Правила информационной безопасности при общении с ИИ: чек-лист
После приведенных нами примеров может сложиться впечатление, что работать с нейросетями опасно. Но это, конечно, не так. Дело не в самих инструментах, а в привычке использовать их на автомате.
Поэтому важно сохранять осознанность при общении с чат-ботами и контролировать, какую информацию вы им передаете. Для этого достаточно соблюдать несколько простых правил:
✅ Рассматривайте любую нейросеть как общедоступное облако
Публичные AI-модели, особенно бесплатные, — это не ваши персональные ассистенты, а сервисы с многомиллионной аудиторией. Даже если они обещают приватность, исходите из того, что ваши данные могут храниться и анализироваться самими платформами, а также быть доступными третьим лицам.
✅ Используйте временные чаты
Если вы все же работаете с чувствительной информацией, то лучше использовать режим, при котором ИИ не запоминает диалоги. Это временные чаты (temporary), они уже есть в ChatGPT и Gemini, а в будущем могут появиться и в других сервисах.
✅ Регулярно удаляйте переписки
Заведите привычку чистить историю диалогов хотя бы раз в неделю. Пусть данные и удаляются с серверов не сразу, но так вы сможете снизить риски того, что во время очередной утечки ваши данные станут доступны злоумышленникам.
Итог
Чат-боты уже стали частью нашей повседневности. Мы делимся с ними мыслями, идеями, черновиками, иногда забывая, что часть этой информации имеет слишком большую ценность и не должна попадать в чужие руки.
В статье мы рассказали, почему нужно быть особенно осторожными в использовании:
- персональных данных
- коммерческой информации
- доступов к системам
- данных о новых продуктах
- медицинских сведений
Но все это не означает отказ от ИИ. Если задача требует использования фрагментов чувствительной информации, есть способы снизить риски: временные чаты, обезличивание данных, мгновенное удаление переписок и работа с надёжными корпоративными решениями, например, BitrixGPT.
Эти простые шаги позволяют получать привычную пользу от использования технологий, не теряя контроль над важными данными.
Был интересен материал? Оставайтесь с нами. Мы делимся полезными статьями об автоматизации бизнес-процессов и рассказываем, как работать быстрее, проще и эффективнее.
А если вы хотите автоматизировать ваш бизнес — команда IT-Solution всегда готова помочь!