Найти в Дзене
SecureTechTalks

🚨 OpenAI выпустила GPT-OSS Safeguard: открытую систему безопасности для ИИ

🚨 OpenAI выпустила GPT-OSS Safeguard: открытую систему безопасности для ИИ

Компания OpenAI представила GPT-OSS Safeguard: набор открытых моделей, которые помогают проверять безопасность контента и отслеживать корректность работы других нейросетей.

Это шаг к тому, чтобы сделать процессы Trust & Safety прозрачнее и управляемее.

🧩 OpenAI выпустила две модели: gpt-oss-safeguard-120B и gpt-oss-safeguard-20B.

Обе доступны с открытыми весами по лицензии Apache 2.0 их можно использовать, модифицировать и запускать локально.

📜  Модель принимает правила безопасности (policy) во время выполнения.

Разработчик может задать собственные критерии, и Safeguard классифицирует запросы или ответы по этим правилам.

💬 Ещё одно преимущество в том, что модель возвращает обоснование решения (chain-of-thought), что делает проверку прозрачной и в теории пригодной для аудита.

Подробнее в официальном блоге OpenAI.

🧠 Что умеет модель?

🤖 Модель анализирует текст, сопоставляет его с правилами и выдает оценку риска.

Например, она может определить, что сообщение содержит обход фильтра, и пометить его как «high risk».

📊 Вместо обычного «разрешено/запрещено» Safeguard объясняет, почему принято то или иное решение.

Это можно использовать для логирования, расследований и улучшения политики безопасности.

🔐 Новые возможности

Safeguard позволяет:

⚙️ внедрять собственные правила и политики проверки;

🔒 запускать модель внутри корпоративного периметра;

📑 анализировать reasoning-цепочки при расследованиях;

🧠 адаптировать правила без повторного обучения модели.

Открытые веса делают систему гибкой и позволяют интегрировать её в решения, где важно хранить данные локально.

⚠️ Риски

🔓 Открытые модели это не только гибкость, но и сложность настройки.

Если политика безопасности описана неточно, возможны ошибки классификации и ложные срабатывания.

🧨 Reasoning-модели можно обмануть подобранными запросами (prompt injection), поэтому нужно внедрять дополнительные инструменты защиты.

💬 Вопросы, на которые предстоит ответить

❓ Насколько reasoning реально помогает в аудите?

🧩 Можно ли избежать утечек через объяснения модели?

⚡ Подходит ли Safeguard для real-time систем?

Stay secure and read SecureTechTalks 📚

#OpenAI #ИИ #Кибербезопасность #TrustAndSafety #AIsecurity #MachineLearning #DataProtection #CyberThreats #TechNews #SecureTechTalks