Найти в Дзене
Цифровая Переплавка

GPT-OSS: первые «открытые» модели OpenAI и почему они напоминают Phi-5

OpenAI выпустила две первые модели с открытыми весами — gpt-oss-120b и gpt-oss-20b. На бумаге это звучит как шаг к открытости, но если копнуть глубже, картина получается более стратегической, чем идеалистической. Эти модели могут впечатлить на бенчмарках, но в реальных задачах их возможности вызывают вопросы. История gpt-oss очень напоминает путь Phi-моделей, разработанных в Microsoft под руководством Себастьяна Бубека: Иронично, но gpt-oss может оказаться буквально Phi-5 и Phi-5-mini под брендом OpenAI. Открытые веса — это не просто PR-жест, а риск для имиджа компании: Синтетические датасеты позволяют создавать бесконечные примеры «мягких отказов» — когда ИИ вежливо уходит от выполнения потенциально опасной задачи, оставаясь при этом «полезным» в безопасных границах. Для OpenAI эти модели — компромисс между открытостью и безопасностью: В отличие от Meta, которой важно, чтобы open-source модель реально работала в продакшене, OpenAI может позволить себе, чтобы gpt-oss был «показушным че
Оглавление
Абстрактная иллюстрация без текста — две пазлинки соединяются: зелёная с открытым замком (open-source) и тёмно-синяя с узором «нейросети». На фоне сияют трофей, флаг и график (бенчмарки), а иконки реальных задач приглушены — намёк, что gpt-oss блистает в тестах, но спорна в практике.
Абстрактная иллюстрация без текста — две пазлинки соединяются: зелёная с открытым замком (open-source) и тёмно-синяя с узором «нейросети». На фоне сияют трофей, флаг и график (бенчмарки), а иконки реальных задач приглушены — намёк, что gpt-oss блистает в тестах, но спорна в практике.

OpenAI выпустила две первые модели с открытыми весами — gpt-oss-120b и gpt-oss-20b. На бумаге это звучит как шаг к открытости, но если копнуть глубже, картина получается более стратегической, чем идеалистической. Эти модели могут впечатлить на бенчмарках, но в реальных задачах их возможности вызывают вопросы.

🧬 Схожесть с линейкой Phi от Microsoft

История gpt-oss очень напоминает путь Phi-моделей, разработанных в Microsoft под руководством Себастьяна Бубека:

  • 📚 Синтетическое обучение — модель учат не на «сырых» данных интернета, а на тексте, сгенерированном другими ИИ или тщательно подобранных учебниках.
  • 🎯 Подгонка под тесты — зная формат бенчмарков, можно целенаправленно создавать тренировочные данные под конкретные типы задач, чтобы выглядеть безупречно в сравнительных таблицах.
  • Реальная эффективность — в «полевых» условиях такие модели часто теряют уверенность и демонстрируют ограниченные знания за пределами узкой предметной области.

Иронично, но gpt-oss может оказаться буквально Phi-5 и Phi-5-mini под брендом OpenAI.

🔒 Почему синтетика = безопасность

Открытые веса — это не просто PR-жест, а риск для имиджа компании:

  • 🔐 Модели с открытыми весами нельзя отозвать — однажды попав в открытый доступ, они останутся там навсегда.
  • 🚫 Файнтюнинг на «тёмные» сценарии — основной риск в том, что сообщество может адаптировать модель под нежелательные цели (в том числе для эротических ролевых игр, что, как ни странно, остаётся одной из самых популярных локальных донастроек).
  • 🧹 Контролируемые данные — убрав из обучающего корпуса любой провокационный или вредоносный контент, OpenAI снижает шанс, что модель когда-то «выстрелит» скандальным ответом.

Синтетические датасеты позволяют создавать бесконечные примеры «мягких отказов» — когда ИИ вежливо уходит от выполнения потенциально опасной задачи, оставаясь при этом «полезным» в безопасных границах.

📊 Зачем OpenAI такой продукт

Для OpenAI эти модели — компромисс между открытостью и безопасностью:

  • 🥇 Выигрывать в тестах — показать конкурентоспособность на фоне китайских и западных open-source моделей.
  • 🛡 Избежать скандалов — ограничить риски токсичных или незаконных ответов.
  • 💼 Сохранить фокус на закрытых флагманах — бизнес-модель OpenAI строится на GPT-5 и других облачных сервисах, а не на открытых решениях.

В отличие от Meta, которой важно, чтобы open-source модель реально работала в продакшене, OpenAI может позволить себе, чтобы gpt-oss был «показушным чемпионом» на бенчмарках, но посредственным в реальности.

💭 Моё мнение

Я вижу gpt-oss как демонстрационную витрину, а не как инструмент для массового внедрения. Да, архитектура и контроль над данными позволяют сделать модель «безопасно управляемой», но это ограничивает её глубину и адаптивность.

Скорее всего, такие модели найдут применение в корпоративных тестах, образовательных платформах и проектах, где важнее контроль, чем креативность. Но для исследователей, ищущих реальную универсальность, они быстро покажут потолок.

Если же вы хотите модель для чистых экспериментов без риска «взрыва» в продакшене, gpt-oss может стать неплохой отправной точкой. Только не ждите, что она заменит закрытые аналоги OpenAI или модели уровня GPT-5 в реальных боевых условиях.

🔗 Ссылки по теме: