Еще недавно AI-кодинг был почти синонимом облака: закрытые модели, удалённые сервера, API-ключи и вечный страх утечки кода. Но новость от Ollama аккуратно, без громких лозунгов, переворачивает эту парадигму: OpenAI Codex теперь может работать с локальными open-weight моделями через Ollama. И это, на мой взгляд, куда важнее, чем кажется на первый взгляд. Ключевая идея проста, но мощна:
Codex CLI теперь умеет читать, изменять и исполнять код в вашем рабочем каталоге, используя локальные модели, такие как gpt-oss:20b или gpt-oss:120b, запущенные через Ollama. Это означает: Фактически Codex превращается из «облачного ассистента» в полноценного локального агента, который живёт рядом с вашим репозиторием. На поверхности это выглядит как удобный флаг --oss. Но если копнуть глубже, появляется сразу несколько фундаментальных сдвигов: Корпоративный код, NDA-проекты, CTF-эксплойты, R&D — всё это теперь можно безопасно анализировать и модифицировать AI-агентом без страха утечки. Используются open-