OpenAI представила новую функцию для ограниченного числа пользователей ChatGPT, которая позволяет чатботу сохранять информацию, полученную в ходе взаимодействия между человеком и ИИ. Но знали ли вы, что эта возможность "памяти" призвана избавить пользователей от необходимости повторять информацию? Да, OpenAI даже включает эту функцию по умолчанию, но не переживайте, вы всегда можете ее отключить по желанию.
Занимательно, но кажется, что функция уже работала раньше. Программисты не раз замечали, что отправив код на отладку, потом его можно получить в другом чате ChatGPT или вовсе у другого пользователя! Возможно, этим действием компания лишь показывает, что вся информация сказанная боту, может быть использована против вас. Звучит как начало фантастического фильма, но это уже в нашей реальности.
Как в фильме "Люди в чёрном"?
Пользователи могут управлять этой функцией, в фильме "Люди в чёрном" знаменитые агенты управляют воспоминаниями свидетелей после встречи с пришельцами - но без нейронных стирающих устройств, здесь все гораздо проще.
На видеоролике OpenAI мы видим вымышленного пользователя, управляющего воспоминаниями в своих настройках. Это как записи полицейского в блокноте во время интервью с свидетелем, только теперь это делает бот. Воспоминания внешне представляют собой краткие заметки о предпочтениях и биографической информации, "Дочь, Лина, любит медуз," - читается в одной из них. "Предпочитает помощь в написании и блогах более кратким, прямым и менее эмоциональным," - говорится в другой.
Страх быть услышанным
Несмотря на всю полезность этой функции, она же вызывает некоторые опасения, особенно учитывая, насколько легко представить себе, что активные пользователи ChatGPT случайно раскроют особенности своей рабочей, семейной и медицинской ситуации. А уж если информация является конфиденциальной, было бы страшно если бы какой-нибудь конкурент узнал о ней таким образом. Еще более тревожным является то, что OpenAI уже имеет историю случайного утечки сохраненных разговоров.
В попытке развеять такие опасения, OpenAI заявляет, что позволяет пользователям с включенной функцией включить опцию "временного чата" для разговоров инкогнито, как в современных веб-браузерах. OpenAI также утверждает, что будет предотвращать проактивное запоминание чувствительных данных, если это не "явно" запрошено пользователем. Это намекает на дополнительную функцию памяти ChatGPT, которая, когда обнаруживает, что вы только что рассказали какую-то секретную или личную информацию спросит у вас "Хотите, чтобы я запомнил это?"
В заключение
На данный момент OpenAI утверждает, что функция находится в тестировании, и что она будет "постепенно внедряться в небольшую часть пользователей ChatGPT бесплатной и платной версии на этой неделе", и что она все еще оценивается на полезность. Если вы используете ChatGPT, не забудьте проверить, включена ли эта функция.
Как вы думаете, какие могут быть последствия сохранения вашей информации ботом? На самом ли деле это удобство или скрытая опасность? А может быть, у вас есть свой опыт использования подобных функций в других сервисах? Поделитесь своим мнением в комментариях!