Найти тему

Чат-бот ChatGPT может сливать пароли из частных чатов своих пользователей

Изображение:
Zac Wolff (unsplash)

Популярный чат-бот ChatGPT публикует частные разговоры, которые включают в себя и учётные данные для авторизации и другие личные данные несвязанных пользователей. Об этом накануне сообщило профильное издание Ars Technica.

ChatGPT публикует частные разговоры, которые включают в себя учётные данные для входа и другие личные данные несвязанных пользователей, как показывают скриншоты, представленные читателем Ars Technica в прошедший понедельник. Два из семи скриншотов, отправленных читателем, выделялись особенно — оба содержали несколько пар имен пользователей и паролей, которые, по-видимому, были подключены к системе поддержки, используемой сотрудниками одного из крупных аптечных порталов по рецептурным лекарствам. Сотрудник, использующий чат-бота с искусственным интеллектом, похоже, устранял проблемы, возникшие при использовании сайта.

Этот эпизод и другие подобные ему подчёркивают важность удаления личных данных из запросов, сделанных в ChatGPT и других службах искусственного интеллекта, когда это возможно.

Например, в марте прошлого года разработчик ChatGPT, компания OpenAI, отключил своего чат-бота с искусственным интеллектом после того, как из-за ошибки сайт показывал заголовки из истории чата одного активного пользователя несвязанным пользователям.

В ноябре 2023 года исследователи опубликовали документ, в котором сообщалось, как они использовали запросы, чтобы побудить ChatGPT раскрыть адреса электронной почты, номера телефонов и факсов, физические адреса и другие личные данные, которые были включены в материал, используемый для обучения большой языковой модели ChatGPT.

Обеспокоенные возможностью утечки служебных или частных данных компании, в том числе и Apple, ограничили использование ChatGPT и подобных сайтов своим сотрудникам.

В декабре 2023 года также сообщалось, что компания OpenAI устранила утечку данных в чат-боте ChatGPT, однако хакеры всё равно продолжили сливать конфиденциальную информацию. Специалисты по кибербезопасности отмечали, что патч является недостаточным и неполным.

Оригинал публикации на сайте CISOCLUB: "Чат-бот ChatGPT может сливать пароли из частных чатов своих пользователей".

Смотреть публикации по категориям: Новости | Мероприятия | Статьи | Обзоры | Отчеты | Интервью | Видео | Обучение | Вакансии | Утечки | Уязвимости | Сравнения | Дайджесты | Прочее.

Подписывайтесь на нас: VK | Twitter | Rutube | Telegram | Дзен | YouTube.