OpenAI, разработчик ChatGPT, принадлежащего Microsoft, теперь предлагает исследователям безопасности до 20 000 долларов за обнаружение недостатков, чтобы помочь компании отличить доброкачественные ошибки от злонамеренных атак после того, как в прошлом месяце она столкнулась с нарушением безопасности.
OpenAI запустила программу вознаграждения за ошибки для ChatGPT и других продуктов, заявив, что рейтинги приоритета для большинства результатов будут использовать «Таксономию рейтинга уязвимостей BugCrowd». «Наши вознаграждения варьируются от 200 долларов за несерьезные открытия до 20 000 долларов за выдающиеся открытия», — заявила исследовательская компания ИИ. Однако исследователи безопасности не уполномочены проводить тестирование безопасности плагинов, созданных другими людьми. OpenAI также просит этичных хакеров защищать конфиденциальную корпоративную информацию OpenAI, которая может быть раскрыта третьим лицам. Некоторые примеры этой категории включают Google Workspace, Asana, Trello, Jira, Monday.com, ZenDesk, Salesforce и Stripe.
Компания сообщила: «Вы не уполномочены проводить дополнительное тестирование безопасности в отношении этих компаний. Тестирование ограничивается обнаружением конфиденциальной информации OpenAI при соблюдении всех законов и применимых условий. Эти компании являются примерами, и OpenAI не обязательно должен вести бизнес с ними.
"В прошлом месяце OpenAI признал, что платежная информация некоторых пользователей могла быть раскрыта, когда ChatGPT отключился из-за ошибки. По данным компании, ошибка в библиотеке с открытым исходным кодом привела к отключению ChatGPT, что позволило некоторым пользователям просматривать заголовки из истории чата другого активного пользователя.