Добавить в корзинуПозвонить
Найти в Дзене

Бесплатный ChatGPT на своём компьютере: реально ли это

OpenAI выложила в открытый доступ две свои модели — бесплатно, с лицензией на коммерческое использование. Маленькую можно запустить на обычном игровом ПК, большая по тестам сравнима с их же платным o4-mini. gpt-oss — это две модели: большая (120b) и поменьше (20b). Цифры — это примерно количество «настроек» внутри модели, в миллиардах. Чем больше — тем умнее, но тем прожорливее до ресурсов. Большая версия по тестам сравнима с o4-mini — одним из лучших платных вариантов OpenAI для сложных задач. Маленькая держится на уровне o3-mini. Для понимания масштаба: ещё три года назад такого уровня не было даже за деньги. Лицензия Apache 2.0 — можно использовать в работе, встраивать в свои продукты, продавать. Никаких ежемесячных платежей, никакой слежки за запросами, никакой зависимости от серверов OpenAI. Зачем они это сделали — не загадка. DeepSeek из Китая раздаёт модели сравнимого уровня бесплатно, и они работают. Закрытость больше не выглядит как преимущество — скорее как повод уйти к тому,
Оглавление

OpenAI выложила в открытый доступ две свои модели — бесплатно, с лицензией на коммерческое использование. Маленькую можно запустить на обычном игровом ПК, большая по тестам сравнима с их же платным o4-mini.

Что за зверь и зачем это OpenAI

gpt-oss — это две модели: большая (120b) и поменьше (20b). Цифры — это примерно количество «настроек» внутри модели, в миллиардах. Чем больше — тем умнее, но тем прожорливее до ресурсов.

Большая версия по тестам сравнима с o4-mini — одним из лучших платных вариантов OpenAI для сложных задач. Маленькая держится на уровне o3-mini. Для понимания масштаба: ещё три года назад такого уровня не было даже за деньги.

Лицензия Apache 2.0 — можно использовать в работе, встраивать в свои продукты, продавать. Никаких ежемесячных платежей, никакой слежки за запросами, никакой зависимости от серверов OpenAI.

Зачем они это сделали — не загадка. DeepSeek из Китая раздаёт модели сравнимого уровня бесплатно, и они работают. Закрытость больше не выглядит как преимущество — скорее как повод уйти к тому, у кого открыто. OpenAI, видимо, решила, что лучше раздать часть кухни самой, чем наблюдать, как гости уходят в ресторан напротив.

Как попробовать прямо сейчас

Самый простой способ — вообще без установки. Groq, Hugging Face, официальный сайт gpt-oss.com — открываешь в браузере, пишешь, работает. Никакого железа, никакой настройки.

Если хочется у себя — есть LM Studio. Интерфейс как у обычного приложения: скачал, открыл, нашёл модель в списке, нажал Download. Она сама подтянет файлы (~15 ГБ) и запустится. Через Ollama ещё проще — одна строчка в терминале: ollama run gpt-oss.

Звучит почти как «просто». Почти.

Честный разговор про железо

Маленькая версия официально требует 16 ГБ оперативной памяти или видеокарты. На практике это нижний предел, при котором модель запустится. А дальше начинается терпение.

На MacBook Air M4 с 16 ГБ ответ на «привет» занял пять минут. Ты успеешь сходить за кофе, вернуться, и модель как раз допишет второе предложение.

На игровой видеокарте — RTX 3090 или 4090 — скорость 30–50 слов в секунду, это уже нормальный разговор. На обычном процессоре без видеокарты — 1–2 слова в секунду. Разница между «поговорить с ИИ» и «наблюдать, как буквы появляются со скоростью задумчивого телеграфиста».

Большую версию (120b) без видеокарты с 80 ГБ видеопамяти реально запустить только на облачном сервере. Это уже история для бизнеса, а не для «попробовать на выходных».

Итого: есть игровой ПК с приличной видеокартой или Mac с 32+ ГБ памяти — пробуй, работает. Нет — начни с облачного демо и реши, нужно ли тебе это локально.

В чём подвох

Локальная модель работает без интернета — и это одновременно её сила и слабость. Приватность — да, всё на твоём компьютере. Но и проверить ничего в сети она не может. Обычный ChatGPT умеет залезть в поисковик и уточнить. Локальный gpt-oss отвечает только из того, чему его научили.

Спросишь, кто выиграл последние выборы — ответит с уверенностью профессора. Только данные будут позапрошлогодние.

Для текстов, кода, идей, объяснения сложных тем — отлично. Для новостей и фактчекинга — мимо.

Кому это реально меняет жизнь

Есть ситуации, где локальный ИИ выигрывает у облачного безоговорочно. Работа с конфиденциальными документами — договоры, клиентская база, внутренняя переписка — всё остаётся на твоём компьютере. Ничего никуда не уходит. Для юристов, бухгалтеров, кадровиков, которые до сих пор боялись загружать рабочие файлы в ChatGPT — это снимает главное возражение.

Разработчики получают модель, которую можно встроить в продукт без ежемесячных счетов за API. А если интернет нестабильный — а за пределами крупных городов это не редкость — локальный ИИ работает там, где облачный просто не загрузится.

Для всех остальных облачный ChatGPT или Claude по подписке пока удобнее. Платишь свои деньги в месяц — и не думаешь про видеокарты и гигабайты.

Но сам факт интересен: компания, которая шесть лет строила закрытую систему, начала её открывать. Не из щедрости — конкуренты вынудили. Но для тебя результат одинаковый: модель, которая раньше существовала только за платной стеной, теперь лежит в открытом доступе. Как рецепт от шеф-повара, который раньше никому не показывал кухню — а теперь вдруг опубликовал, потому что у соседей рецепт уже давно на заборе висит.

Ты бы поставил себе локальный ИИ ради приватности — или проще платить за облако и не думать про железо?

Занимаюсь внедрением ИИ для бизнеса. Детали — в телеграме