Общение с ChatGPT, Google Bard и YandexGPT успело стать обыденностью. Языковые модели используются для развлечения и работы, а кто-то даже заменяет чат-ботом психолога. Чем угрожает передача личных и корпоративных данных и как минимизировать риски?
Возможные угрозы конфиденциальности
Эксперты «Лаборатории Касперского» выделяют четыре проблемы, которые могут привести к нежелательному использованию приватной информации при общении с чат-ботами:
- Утечка со стороны сервиса. Хотя в Google и «Яндексе» есть гигантские отделы безопасности, от взломов и утечек никто не застрахован. Как и от багов: к примеру, в марте пользователи ChatGPT могли видеть некоторые сообщения из чужих чатов.
- Взлом аккаунта. На закрытых форумах регулярно продают взломанные учётные записи, слитые с ChatGPT и других нейросетей.
- Попадание в базу для обучения. Обучение любой нейросети невозможно без гигантских массивов информации. Разработчики не пренебрегают и данными, которые передают сами пользователи. Опасность в том, что языковые модели склонны к «непреднамеренному запоминанию». То есть заучивают уникальные последовательности вроде номеров телефонов.
- Недобросовестный сервис. В России и других странах, где ChatGPT и Google Bard официально недоступны, пользуются спросом сервисы-посредники вроде Telegram-ботов. Однако невозможно удостовериться, что их владельцы не сохраняют всю переписку.
Вопросы конфиденциальности возникают и у компаний. Apple, Samsung и Amazon запретили своим сотрудникам общаться с нейросетями по рабочим вопросам, опасаясь утечки корпоративных тайн.
Что можно сделать
Добросовестные создатели чат-ботов указывают, что используют данные клиентов для обучения моделей. В частности, об этом упоминается в политиках конфиденциальности OpenAI (разработчик ChatGPT), Microsoft (Bing Chat), Google (Bard) и «Яндекса» («Алиса», в рамках которой функционирует режим общения с YandexGPT).
Правила конфиденциальности для корпоративных клиентов, которые обращаются к чат-ботам через API-интерфейсы, обычно более строгие. Например, OpenAI не будет эксплуатировать данные пользователя для обучения до тех пор, пока тот не даст на это согласие.
Некоторые сервисы позволяют отказаться от использования сведений в целях обучения:
- ChatGPT — откройте «Настройки», перейдите в «Управление данными», войдите в раздел «История чата и обучение». При активации опции переписка с ботом будет удаляться через 30 дней.
- Google Bard — можно выбрать период хранения бесед (3, 18 или 36 месяцев) либо запретить их фиксацию вообще. Для этого перейдите на страницу «История действий в Bard» и выберите «Автоматическое удаление». Там же легко снести уже существующие диалоги.
Защититься от взлома аккаунта можно при помощи двухфакторной аутентификации. При авторизации, помимо ввода логина и пароля, попросят указать дополнительную информацию — чаще всего это одноразовый код из SMS или приложения, генерирующего TOTP-коды.
Вот как включить двухфакторную аутентификацию:
- ChatGPT — страница в настройках аккаунта. Активируйте «Включить двухфакторную проверку подлинности».
- Microsoft — страница в настройках аккаунта. «Добавьте новый способ входа или проверки». Далее выберите «Использовать приложение» или «Использовать ключ безопасности».
- «Яндекс» — страница в настройках аккаунта. Там необходимо выбрать пункт «Пароль + одноразовый ключ».