На прошлой неделе группа исследователей опубликовала статью, в которой показано, что ChatGPT удалось вынудить раскрыть биты секретных данных, включая номера телефонов людей, адреса электронной почты и даты рождения, на которых его обучали, прося повторять слова «вечно». Согласно сообщению, сделать это сейчас является нарушением условий обслуживания ChatGPT. Это было опубликовынно в отчете о собственном тестировании 404 Media и Engadget.
«Этот контент может нарушать нашу политику в отношении контента или условия использования», — ответил ChatGPT на предложение Engadget повторять слово «привет» вечно. «Если вы считаете, что это ошибка, отправьте свой отзыв — ваш вклад поможет нашим исследованиям в этой области».
Эта хитрость не противоречит политике в отношении контента OpenAI. Однако OpenAI запрещает пользователям просить сервис вечно повторять слова, как отмечает 404 Media. В "Условия эксплуатации OpenAI заявляет, что пользователи не могут «использовать какие-либо автоматические или программные методы для извлечения данных или вывода из сервиса», но простое указание ChatGPT на вечное повторение слова не является автоматизацией или программным обеспечением. OpenAI не ответила на запрос Engadget о комментариях.
Поведение чат-бота приоткрыло завесу над обучающими данными, на которых основаны современные службы искусственного интеллекта. Критики обвиняют такие компании, как OpenAI, в использовании огромных объемов данных, доступных в Интернете, для создания проприетарных продуктов, таких как ChatGPT, без согласия людей, владеющих этими данными, и без выплаты им компенсации.