Но это должны быть настоящие ошибки, а не странные вещи, о которых говорит ChatGPT.
OpenAI теперь вознаградит вас за обнаружение ошибок в ChatGPT.
Во вторник OpenAI анонсировала программу вознаграждений за ошибки, которая предусматривает выплату от 200 до 20 000 долларов за поиск ошибок в ChatGPT, плагинах OpenAI, OpenAI API и других связанных сервисах. "Мы приглашаем вас сообщать об уязвимостях, багах или недостатках безопасности, которые вы обнаружите в наших системах", - говорилось в объявлении. "Поделившись своими выводами, вы сыграете решающую роль в том, чтобы сделать нашу технологию более безопасной для всех".
Запуск OpenAI программы вознаграждения за ошибки последовал за утечкой данных и растущей обеспокоенностью по поводу рисков для конфиденциальности. Несколько недель назад была обнаружена ошибка, из-за которой отображались названия чатов, первое сообщение о новых разговорах и платежная информация от пользователей ChatGPT Plus. OpenAI также находится под пристальным вниманием из-за того, как она защищает пользовательские данные, особенно когда речь идет о несовершеннолетних. Именно по этой причине ChatGPT был запрещен в Италии. Эти проблемы, а также открытое письмо, подписанное Стивом "Воз" Возняком и Илоном Маском, призывающее к шестимесячной паузе в разработке систем искусственного интеллекта, похоже, побудили OpenAI публично заявить о своей приверженности безопасности.
Программой вознаграждения за ошибки управляет Bugcrowd, которая будет обрабатывать заявки и вознаграждения. Денежная сумма вознаграждения зависит от серьезности ошибки. Существуют подробные рекомендации и правила взаимодействия в отношении того, что не будет вознаграждено. Если "заставить модель говорить вам плохие вещи", то это не будет считаться за баг. Также не предпринимайте никаких атак, которые могут "ухудшить, нарушить работу или негативно повлиять на сервисы или пользовательский опыт", таких как DDoS или мошеннические действия, вроде фишинга и социальной инженерии.
На момент публикации деньги получили уже четверо. Да начнется охота.