Вместо разработки с нуля методов повышения безопасности ИИ для подростков разработчики могут использовать новые политики OpenAI для укрепления своих продуктов. Они касаются насилия, контента и опасного поведения. — techcrunch.com Вместо того чтобы с нуля разрабатывать методы повышения безопасности ИИ для подростков, разработчики могут использовать эти промпты для укрепления своих продуктов. Они затрагивают такие вопросы, как откровенное насилие и сексуальный контент, вредные идеалы и поведение в отношении тела, опасные действия и челленджи, романтические или насильственные ролевые игры, а также товары и услуги с возрастными ограничениями. Эти политики безопасности разработаны в виде промптов, что делает их легко совместимыми с другими моделями, помимо gpt-oss-safeguard, хотя, вероятно, они наиболее эффективны в собственной экосистеме OpenAI. Для написания этих промптов OpenAI, по собственным данным, сотрудничала с организациями, следящими за безопасностью ИИ: Common Sense Media и every
OpenAI выпустила open source инструменты для повышения безопасности подростков при разработке ИИ
24 марта24 мар
2 мин