Добавить в корзинуПозвонить
Найти в Дзене
DigiNews

OpenAI выпустила open source инструменты для повышения безопасности подростков при разработке ИИ

Вместо разработки с нуля методов повышения безопасности ИИ для подростков разработчики могут использовать новые политики OpenAI для укрепления своих продуктов. Они касаются насилия, контента и опасного поведения. — techcrunch.com Вместо того чтобы с нуля разрабатывать методы повышения безопасности ИИ для подростков, разработчики могут использовать эти промпты для укрепления своих продуктов. Они затрагивают такие вопросы, как откровенное насилие и сексуальный контент, вредные идеалы и поведение в отношении тела, опасные действия и челленджи, романтические или насильственные ролевые игры, а также товары и услуги с возрастными ограничениями. Эти политики безопасности разработаны в виде промптов, что делает их легко совместимыми с другими моделями, помимо gpt-oss-safeguard, хотя, вероятно, они наиболее эффективны в собственной экосистеме OpenAI. Для написания этих промптов OpenAI, по собственным данным, сотрудничала с организациями, следящими за безопасностью ИИ: Common Sense Media и every

Вместо разработки с нуля методов повышения безопасности ИИ для подростков разработчики могут использовать новые политики OpenAI для укрепления своих продуктов. Они касаются насилия, контента и опасного поведения. — techcrunch.com

Вместо того чтобы с нуля разрабатывать методы повышения безопасности ИИ для подростков, разработчики могут использовать эти промпты для укрепления своих продуктов. Они затрагивают такие вопросы, как откровенное насилие и сексуальный контент, вредные идеалы и поведение в отношении тела, опасные действия и челленджи, романтические или насильственные ролевые игры, а также товары и услуги с возрастными ограничениями.

Эти политики безопасности разработаны в виде промптов, что делает их легко совместимыми с другими моделями, помимо gpt-oss-safeguard, хотя, вероятно, они наиболее эффективны в собственной экосистеме OpenAI.

Для написания этих промптов OpenAI, по собственным данным, сотрудничала с организациями, следящими за безопасностью ИИ: Common Sense Media и everyone.ai.

«Эти политики на основе промптов помогают установить значимый базовый уровень безопасности во всей экосистеме, и поскольку они выпущены как открытый исходный код, их можно адаптировать и улучшать со временем», — заявил Робби Торни, руководитель отдела оценки ИИ и цифровых технологий в Common Sense Media, в своем заявлении.

OpenAI отметила в своем блоге, что разработчики, включая опытные команды, часто сталкиваются с трудностями при преобразовании целей безопасности в точные операционные правила.

«Это может привести к пробелам в защите, непоследовательному применению или чрезмерно широкой фильтрации», — написала компания. «Четкие, хорошо очерченные политики являются критически важной основой для эффективных систем безопасности».

OpenAI признает, что эти политики не являются решением сложных проблем безопасности ИИ. Однако это развитие предыдущих усилий компании, включая меры защиты на уровне продукта, такие как родительский контроль и прогнозирование возраста. В прошлом году OpenAI обновила руководящие принципы для своих больших языковых моделей — известных как Model Spec — чтобы регулировать поведение своих моделей ИИ при взаимодействии с пользователями младше 18 лет.

Тем не менее, у самой OpenAI не самая безупречная репутация. Компания столкнулась с несколькими судебными исками от семей людей, покончивших с собой после чрезмерного использования ChatGPT. Такие опасные связи часто формируются, когда пользователь обходит меры защиты чат-бота, и ни одна система ограничений модели не является полностью непроницаемой. Тем не менее, эти политики — это, по крайней мере, шаг вперед, особенно учитывая, что они могут помочь независимым разработчикам.

Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.

Автор – Amanda Silberling

Оригинал статьи

Open Source
12 тыс интересуются