Найти в Дзене

Загружаете резюме и договоры в ChatGPT? Делайте это безопасно

Сотрудники HR любят ChatGPT. Закидывают туда резюме, просят оценить soft skills или сделать саммари. Юристы загружают договоры с фамилиями клиентов для поиска ошибок. Это удобно. Экономит часы работы. Но безопасно ли это для бизнеса? Спойлер: Нет. Если вы делаете это "в лоб". Разберем механику. 1. На чем учится модель По умолчанию ChatGPT сохраняет историю и учится на ваших диалогах. Если вы загрузили базу клиентов или паспортные данные сотрудника, они могут стать частью обучающего набора. Теоретически, через полгода модель может выдать эти данные другому пользователю в ответ на похожий контекст. Шанс мал, но он не нулевой. OpenAI прямо предупреждает: "Не вводите чувствительную информацию". 2. Режим невидимки Вы можете отключить обучение в настройках (Data Controls -> Improve the model for everyone). Тогда ваши чаты не попадут в датасет. Но данные все равно остаются на серверах OpenAI минимум 30 дней. Это нужно для модерации (abuse monitoring). Даже если вы удалили чат, в логах он

Загружаете резюме и договоры в ChatGPT? Делайте это безопасно

Сотрудники HR любят ChatGPT. Закидывают туда резюме, просят оценить soft skills или сделать саммари. Юристы загружают договоры с фамилиями клиентов для поиска ошибок. Это удобно. Экономит часы работы.

Но безопасно ли это для бизнеса?

Спойлер: Нет. Если вы делаете это "в лоб".

Разберем механику.

1. На чем учится модель

По умолчанию ChatGPT сохраняет историю и учится на ваших диалогах.

Если вы загрузили базу клиентов или паспортные данные сотрудника, они могут стать частью обучающего набора.

Теоретически, через полгода модель может выдать эти данные другому пользователю в ответ на похожий контекст. Шанс мал, но он не нулевой. OpenAI прямо предупреждает: "Не вводите чувствительную информацию".

2. Режим невидимки

Вы можете отключить обучение в настройках (Data Controls -> Improve the model for everyone). Тогда ваши чаты не попадут в датасет.

Но данные все равно остаются на серверах OpenAI минимум 30 дней. Это нужно для модерации (abuse monitoring).

Даже если вы удалили чат, в логах он живет еще месяц.

3. Главный риск не в ИИ

Выдача данных спецслужбам нам вряд ли грозит. OpenAI требует ордер американского суда. Вероятность такого запроса по рядовому российскому бизнесу стремится к нулю.

Проблема в другом.

Ошибки софта. Вспомните сбой, когда пользователи видели заголовки чужих чатов.

Человеческий фактор. В интерфейсе есть кнопка "Share link" (Поделиться ссылкой). Сотрудник нажимает её, чтобы скинуть результат коллеге. Ссылка становится публичной. Любой, кто её подберет или перехватит, увидит весь контекст. Включая ФИО и паспорта.

4. Российский закон

Передача персональных данных в зарубежный ИИ-сервис без согласия субъекта это трансграничная передача. В большинстве случаев это нарушение 152-ФЗ.

Дальше штрафы и проверки Роскомнадзора.

Вывод

Отказываться от ИИ глупо. Но нужна гигиена.

Прежде чем скормить нейросети договор или резюме, обезличьте данные.

Замените "Иванов Иван Иванович, серия 4500..." на "Клиент 1". Удалите телефоны и адреса.

Для анализа текста нейросети фамилия не нужна.

Смысл останется. Риск исчезнет.

🔴 #Важно

Не запрещайте ИИ.

Он повышает продуктивность.

Внедрите правила санитизации персональных данных.

#безопасность