Добавить в корзинуПозвонить
Найти в Дзене
SecureTechTalks

🤖 OpenAI больше не ограничивает ответы модели

Они ограничивают тебя. Вышла модель GPT-5.4-Cyber. OpenAI выпустила отдельную версию модели,  GPT-5.4-Cyber, заточенную под кибербезопасность. Компания гранулирует доступ к опасным возможностям, а не убирает их. Одновременно расширяется программа Trusted Access for Cyber: ➖тысячи проверенных специалистов ➖сотни команд ➖новые уровни доступа И только на верхнем уровне открывается сама модель. ⚙️ Что умеет модель GPT-5.4-Cyber работает на уровне практики: ➖умеет разбирать бинарники без исходников, ➖анализировать malware, ➖оценивать безопасность compiled-софта, ➖искать уязвимости там, где раньше нужен был отдельный стек инструментов. 👉 у модели снижены ограничения на “опасные” запросы, если они выглядят как легитимная работа по безопасности 🔐 Доступ как новая граница Раньше AI пытались «обезвредить» на уровне самой модели. Теперь подход другой, модель может многое но не всем это доступно OpenAI прямо говорит, что возможности модели это dual-use, и риск зависит не только от модел

🤖 OpenAI больше не ограничивает ответы модели.

Они ограничивают тебя.

Вышла модель GPT-5.4-Cyber.

OpenAI выпустила отдельную версию модели,  GPT-5.4-Cyber, заточенную под кибербезопасность.

Компания гранулирует доступ к опасным возможностям, а не убирает их.

Одновременно расширяется программа Trusted Access for Cyber:

➖тысячи проверенных специалистов

➖сотни команд

➖новые уровни доступа

И только на верхнем уровне открывается сама модель.

⚙️ Что умеет модель

GPT-5.4-Cyber работает на уровне практики:

➖умеет разбирать бинарники без исходников,

➖анализировать malware,

➖оценивать безопасность compiled-софта,

➖искать уязвимости там, где раньше нужен был отдельный стек инструментов.

👉 у модели снижены ограничения на “опасные” запросы, если они выглядят как легитимная работа по безопасности

🔐 Доступ как новая граница

Раньше AI пытались «обезвредить» на уровне самой модели. Теперь подход другой,

модель может многое

но не всем это доступно

OpenAI прямо говорит, что возможности модели это dual-use, и риск зависит не только от модели, но и от пользователя:

🔑 вводится жёсткая верификация (KYC)

🔑 уровни доверия

🔑 градация возможностей

Чем выше доверие, тем меньше ограничений.

🧩 Зачем?

Старый подход перестал работать. Атакующие уже научились «выжимать» больше из обычных моделей просто за счёт большего количества вычислений и сложных сценариев использования.

Ищначально OpenAI усиливали защитный стек.

Codex Security помог найти и исправить 3000+ критичных уязвимостей

и подключился к более чем 1000 open-source проектов. Теперь пришло время альтернативных подходов.

Stay secure and read SecureTechTalks 📚

#кибербезопасность #AI #LLM #cybersecurity #OpenAI #инфобез #AIsecurity #уязвимости #технологии #SecureTechTalks