Найти в Дзене
4pda.to

Чат-боты — хит 2023 года. Но что насчёт конфиденциальности ваших бесед с ИИ?

Оглавление
   Чат-боты — хит 2023 года. Но что насчёт конфиденциальности ваших бесед с ИИ?
Чат-боты — хит 2023 года. Но что насчёт конфиденциальности ваших бесед с ИИ?

Общение с ChatGPT, Google Bard и YandexGPT успело стать обыденностью. Языковые модели используются для развлечения и работы, а кто-то даже заменяет чат-ботом психолога. Чем угрожает передача личных и корпоративных данных и как минимизировать риски?

-2

Возможные угрозы конфиденциальности

Эксперты «Лаборатории Касперского» выделяют четыре проблемы, которые могут привести к нежелательному использованию приватной информации при общении с чат-ботами:

  • Утечка со стороны сервиса. Хотя в Google и «Яндексе» есть гигантские отделы безопасности, от взломов и утечек никто не застрахован. Как и от багов: к примеру, в марте пользователи ChatGPT могли видеть некоторые сообщения из чужих чатов.
  • Взлом аккаунта. На закрытых форумах регулярно продают взломанные учётные записи, слитые с ChatGPT и других нейросетей.
  • Попадание в базу для обучения. Обучение любой нейросети невозможно без гигантских массивов информации. Разработчики не пренебрегают и данными, которые передают сами пользователи. Опасность в том, что языковые модели склонны к «непреднамеренному запоминанию». То есть заучивают уникальные последовательности вроде номеров телефонов.
  • Недобросовестный сервис. В России и других странах, где ChatGPT и Google Bard официально недоступны, пользуются спросом сервисы-посредники вроде Telegram-ботов. Однако невозможно удостовериться, что их владельцы не сохраняют всю переписку.
   Сообщение на форуме с раздачей учётных записей OpenAI
Сообщение на форуме с раздачей учётных записей OpenAI

Вопросы конфиденциальности возникают и у компаний. Apple, Samsung и Amazon запретили своим сотрудникам общаться с нейросетями по рабочим вопросам, опасаясь утечки корпоративных тайн.

Что можно сделать

Добросовестные создатели чат-ботов указывают, что используют данные клиентов для обучения моделей. В частности, об этом упоминается в политиках конфиденциальности OpenAI (разработчик ChatGPT), Microsoft (Bing Chat), Google (Bard) и «Яндекса» («Алиса», в рамках которой функционирует режим общения с YandexGPT).

Правила конфиденциальности для корпоративных клиентов, которые обращаются к чат-ботам через API-интерфейсы, обычно более строгие. Например, OpenAI не будет эксплуатировать данные пользователя для обучения до тех пор, пока тот не даст на это согласие.

-4

Некоторые сервисы позволяют отказаться от использования сведений в целях обучения:

  • ChatGPT — откройте «Настройки», перейдите в «Управление данными», войдите в раздел «История чата и обучение». При активации опции переписка с ботом будет удаляться через 30 дней.
  • Google Bard — можно выбрать период хранения бесед (3, 18 или 36 месяцев) либо запретить их фиксацию вообще. Для этого перейдите на страницу «История действий в Bard» и выберите «Автоматическое удаление». Там же легко снести уже существующие диалоги.

Защититься от взлома аккаунта можно при помощи двухфакторной аутентификации. При авторизации, помимо ввода логина и пароля, попросят указать дополнительную информацию — чаще всего это одноразовый код из SMS или приложения, генерирующего TOTP-коды.

-5

Вот как включить двухфакторную аутентификацию: