Добавить в корзинуПозвонить
Найти в Дзене
Цифровая Переплавка

Codex возвращается — но теперь локально. Почему связка OpenAI Codex + Ollama меняет правила игры

Еще недавно AI-кодинг был почти синонимом облака: закрытые модели, удалённые сервера, API-ключи и вечный страх утечки кода. Но новость от Ollama аккуратно, без громких лозунгов, переворачивает эту парадигму: OpenAI Codex теперь может работать с локальными open-weight моделями через Ollama. И это, на мой взгляд, куда важнее, чем кажется на первый взгляд. Ключевая идея проста, но мощна:
Codex CLI теперь умеет читать, изменять и исполнять код в вашем рабочем каталоге, используя локальные модели, такие как gpt-oss:20b или gpt-oss:120b, запущенные через Ollama. Это означает: Фактически Codex превращается из «облачного ассистента» в полноценного локального агента, который живёт рядом с вашим репозиторием. На поверхности это выглядит как удобный флаг --oss. Но если копнуть глубже, появляется сразу несколько фундаментальных сдвигов: Корпоративный код, NDA-проекты, CTF-эксплойты, R&D — всё это теперь можно безопасно анализировать и модифицировать AI-агентом без страха утечки. Используются open-
Оглавление

Еще недавно AI-кодинг был почти синонимом облака: закрытые модели, удалённые сервера, API-ключи и вечный страх утечки кода. Но новость от Ollama аккуратно, без громких лозунгов, переворачивает эту парадигму: OpenAI Codex теперь может работать с локальными open-weight моделями через Ollama. И это, на мой взгляд, куда важнее, чем кажется на первый взгляд.

💻 Codex снова “у вас на машине”

Ключевая идея проста, но мощна:
Codex CLI теперь умеет читать, изменять и исполнять код
в вашем рабочем каталоге, используя локальные модели, такие как gpt-oss:20b или gpt-oss:120b, запущенные через Ollama.

Это означает:

  • код не уходит в облако,
  • нет API-лимитов,
  • нет скрытых логов на стороне провайдера.

Фактически Codex превращается из «облачного ассистента» в полноценного локального агента, который живёт рядом с вашим репозиторием.

🧠 Почему это важнее, чем просто “ещё одна интеграция”

На поверхности это выглядит как удобный флаг --oss. Но если копнуть глубже, появляется сразу несколько фундаментальных сдвигов:

🔐 Приватность по умолчанию

Корпоративный код, NDA-проекты, CTF-эксплойты, R&D — всё это теперь можно безопасно анализировать и модифицировать AI-агентом без страха утечки.

🧩 Открытая экосистема вместо “чёрного ящика”

Используются open-weight модели, а значит:

  • можно выбирать модель под задачу,
  • можно дообучать,
  • можно анализировать поведение и ограничения.

⚙️ Локальная агентность

Codex — это не чат. Это агент, который:

  • читает файлы,
  • пишет код,
  • запускает команды,
  • понимает контекст репозитория.

В сочетании с локальной моделью он становится чем-то средним между IDE-помощником и автономным девопс-инженером.

🧪 Немного технических деталей (без маркетинга)

Чтобы всё это заработало, нужно буквально несколько шагов:

🧰 Установка Codex CLI

npm install -g @openai/codex

🚀 Запуск с open-source моделью

codex --oss

По умолчанию используется gpt-oss:20b, но модель можно сменить:

🔄 Переключение модели

codex --oss -m gpt-oss:120b

☁️ Гибридный вариант (локальный Codex + облачная модель Ollama)

codex --oss -m gpt-oss:120b-cloud

📌 Важный момент:
Codex
любит большой контекст. Рекомендуется минимум 32K токенов, и это логично — агенту нужно “держать в голове” структуру проекта, а не только один файл.

🤔 Моё личное мнение

Для меня эта новость — не про Codex и не про Ollama.
Она про
смену философии:

  • от SaaS → к local-first
  • от “спроси модель” → к агенту, который действует
  • от закрытых API → к настраиваемой AI-инфраструктуре

Если раньше vibe-coding и agentic-подходы выглядели как эксперименты энтузиастов, то теперь они получают производственный фундамент. Локальные агенты, которые знают ваш код лучше любого джуна — и при этом не требуют доверять его внешнему серверу.

🧭 Что дальше?

Я ожидаю, что следующим шагом станет:

  • интеграция Codex + Ollama в IDE,
  • связки с sandbox-изоляцией (bubblewrap, firejail),
  • появление “AI-CI”, где локальный агент гоняет тесты и PR перед коммитом.

И всё это — без облака.

🔗 Источники

Если коротко: Codex перестал быть просто продуктом OpenAI и стал инструментом экосистемы. А это всегда хороший знак. 🚀