Искусственный интеллект для кодирования стоит дорого. Но есть выход
Claude Code от Anthropic — это терминальный AI-агент, который может писать, отлаживать и запускать код полностью автоматически. Звучит как мечта программиста, верно? И да, разработчики по всему миру действительно в восторге. Но вот беда: цены от 20 до 200 долларов в месяц в зависимости от использования начали бунтовать буквально самых тех программистов, ради которых это создавалось.
А теперь появляется совершенно бесплатная альтернатива, и она быстро набирает популярность. Goose — это open-source AI-агент от Block (той самой компании, которая раньше называлась Square). Функциональность почти идентична Claude Code, но работает прямо на вашем компьютере. Никаких подписок. Никакой зависимости от облаков. Никаких ограничений, которые обнуляются каждые пять часов.
«Ваши данные остаются у вас, точка» — это слова, которые хорошо описывают главное преимущество. Goose дает разработчикам полный контроль над AI-рабочим процессом, включая возможность работать оффлайн — даже в самолёте.
Проект взорвался популярностью. На GitHub у Goose уже более 26 тысяч звёзд, 362 контрибьютора и 102 релиза с момента запуска. Последняя версия 1.20.1 вышла 19 января 2026 года — темп разработки, который конкурирует с коммерческими продуктами.
Для разработчиков, уставших от ценообразования Claude Code и ограничений по использованию, Goose — это что-то редкое в AI-индустрии: по-настоящему бесплатный вариант для серьёзной работы.
Почему программисты восстают: история с ценами Claude Code
Чтобы понять, почему Goose так важен, нужно разобраться с controversией вокруг цен Claude Code.
Anthropic (та компания из Сан-Франциско, основанная экс-руководителями OpenAI) предлагает Claude Code как часть своих подписок. Бесплатный план? Никакого доступа вообще. План Pro за 17 долларов в месяц (или 20 при помесячной оплате) дает вам всего 10-40 запросов каждые пять часов — ограничение, которое серьёзный разработчик исчерпывает в считаные минуты интенсивной работы.
Планы Max за 100 и 200 долларов в месяц предлагают больше возможностей: 50-200 и 200-800 запросов соответственно, плюс доступ к самой мощной модели Anthropic — Claude 4.5 Opus. Но даже эти премиум-тиры идут с ограничениями, которые вызвали настоящий скандал в сообществе разработчиков.
В конце июля Anthropic объявила новые еженедельные лимиты. В новой системе пользователи Pro получают 40-80 часов использования Sonnet 4 в неделю. Пользователи Max плана за 200 долларов — 240-480 часов Sonnet 4 плюс 24-40 часов Opus 4. Прошло почти пять месяцев, а разочарование не утихло.
В чём подвох? Эти «часы» — не настоящие часы. Это токен-базированные лимиты, которые зависят от размера кодовой базы, длины разговора и сложности обрабатываемого кода. По независимым анализам, реальные лимиты это примерно 44 тысячи токенов для Pro и 220 тысяч для плана Max за 200 долларов.
«Это запутанно и расплывчато» — писал один разработчик в популярном анализе. «Когда они говорят ’24-40 часов Opus 4′, это вообще ничего не говорит вам о том, что вы на самом деле получаете.»
Протест на Reddit и форумах разработчиков был жёсткий. Некоторые пользователи говорят, что исчерпывают дневные лимиты за 30 минут интенсивного кодирования. Другие вообще отменили подписки, называя новые ограничения «шуткой» и «непригодным для реальной работы».
Anthropic защищала эти изменения, утверждая, что ограничения коснулись менее пяти процентов пользователей — якобы тех, кто запускает Claude Code «постоянно в фоне 24/7». Но компания не уточнила, это пять процентов от Max-подписчиков или пять процентов от всех пользователей. Разница большая, кстати.
Как Block создала бесплатный AI-агент, работающий оффлайн
Goose подходит к этой проблеме совершенно по-другому.
Разработанная Block (компания платежей под руководством Джека Дорси), Goose — это то, что инженеры называют «on-machine AI agent». В отличие от Claude Code, который отправляет ваши запросы на серверы Anthropic для обработки, Goose может работать полностью на вашем локальном компьютере, используя open-source языковые модели, которые вы скачиваете и контролируете сами.
Документация проекта описывает его как выходящий «за пределы предложений кода» к тому, чтобы «устанавливать, выполнять, редактировать и тестировать с любой LLM». Последняя фраза — «любой LLM» — это главное отличие. Goose агностичен к моделям по дизайну.
Вы можете подключить Goose к Claude-моделям Anthropic, если у вас есть API-доступ. Можете использовать GPT-5 от OpenAI или Gemini от Google. Можете маршрутизировать через сервисы типа Groq или OpenRouter. Или — и вот это интересно — можете запустить полностью локально, используя инструменты типа Ollama, которые позволяют скачать и запустить open-source модели на собственном оборудовании.
Практические следствия серьёзные. С локальной настройкой нет подписок, нет лимитов на использование, нет rate limits, и никаких опасений, что ваш код будет отправлен внешним серверам. Ваши разговоры с AI никогда не покидают вашу машину.
«Я использую Ollama всё время в самолётах — это очень весело!» — отметил один разработчик во время демонстрации, подчеркивая, как локальные модели освобождают программистов от ограничений интернет-соединения.
Что Goose может делать, чего не могут традиционные ассистенты
Goose работает как инструмент командной строки или настольное приложение, которое может автономно выполнять сложные задачи разработки. Может создавать целые проекты с нуля, писать и запускать код, отлаживать ошибки, координировать работу с несколькими файлами и взаимодействовать с внешними API — и всё это без постоянного человеческого надзора.
Архитектура опирается на то, что в AI-индустрии называют «tool calling» или «function calling» — способность языковой модели запрашивать конкретные действия от внешних систем. Когда вы просите Goose создать новый файл, запустить набор тестов или проверить статус pull request на GitHub, он не просто генерирует текст, описывающий, что должно произойти. Он это действительно выполняет.
Эта возможность зависит от базовой языковой модели. Модели Claude 4 от Anthropic сейчас работают лучше всего в tool calling, по данным Berkeley Function-Calling Leaderboard, которая ранжирует модели по способности преобразовывать естественные языковые запросы в исполняемый код и команды системы.
Но новые open-source модели быстро их догоняют. Документация Goose выделяет несколько вариантов с хорошей поддержкой tool-calling: Llama от Meta, Qwen от Alibaba, Gemma от Google и архитектуры, ориентированные на рассуждения, от DeepSeek.
Инструмент также интегрируется с Model Context Protocol (MCP) — emerging стандартом для подключения AI-агентов к внешним сервисам. Через MCP Goose может получать доступ к базам данных, поисковым системам, файловым системам и третьесторонним API — расширяя свои возможности намного дальше, чем базовая языковая модель.
Как настроить Goose с локальной моделью
Для разработчиков, заинтересованных в полностью бесплатной и конфиденциальной настройке, процесс включает три основных компонента: сам Goose, Ollama (инструмент для локального запуска open-source моделей) и совместимую языковую модель.
Шаг 1: Установите Ollama
Ollama — это open-source проект, который кардинально упрощает процесс запуска больших языковых моделей на персональном оборудовании. Он берёт на себя сложную работу загрузки, оптимизации и обслуживания моделей через простой интерфейс.
Скачайте и установите Ollama с ollama.com. После установки вы можете загружать модели одной командой. Для задач кодирования Qwen 2.5 предлагает хорошую поддержку tool-calling:
ollama run qwen2.5
Модель загружается автоматически и начинает работать на вашей машине.
Шаг 2: Установите Goose
Goose доступен и как настольное приложение, и как интерфейс командной строки. Версия для рабочего стола предоставляет более визуальный опыт, а CLI привлекает разработчиков, которые предпочитают работать полностью в терминале.
Инструкции по установке различаются в зависимости от операционной системы, но обычно включают загрузку со страницы GitHub Goose или использование менеджера пакетов. Block предоставляет готовые двоичные файлы для macOS (Intel и Apple Silicon), Windows и Linux.
Шаг 3: Настройте соединение
В Goose Desktop перейдите в Settings, затем Configure Provider, и выберите Ollama. Убедитесь, что API Host установлен на http://localhost:11434 (стандартный порт Ollama) и нажмите Submit.
Для версии командной строки запустите goose configure, выберите «Configure Providers», выберите Ollama и введите имя модели при запросе.
Вот и всё. Goose теперь подключен к языковой модели, работающей полностью на вашем оборудовании, готов выполнять сложные задачи кодирования без каких-либо подписок или внешних зависимостей.
Сколько RAM вам нужно и какие компромиссы
Очевидный вопрос: какой компьютер вам нужен?
Запуск больших языковых моделей локально требует значительно больше вычислительных ресурсов, чем типичное ПО. Главное ограничение — память, конкретно RAM на большинстве систем или VRAM, если вы используете отдельную графическую карту для ускорения.
Документация Block предполагает, что 32 гигабайта RAM обеспечивает «solid baseline для более крупных моделей и выходных данных». Для пользователей Mac это означает, что объединённая память компьютера — это главное узкое место. Для пользователей Windows и Linux с дискретными видеокартами NVIDIA GPU-память (VRAM) более важна для ускорения.
Но вам не обязательно нужно дорогое оборудование для начала. Меньшие модели с меньшим количеством параметров работают на гораздо более скромных системах. Qwen 2.5, например, поставляется в нескольких размерах, и меньшие варианты могут работать эффективно на машинах с 16 гигабайтами RAM.
«Вам не нужно запускать самые крупные модели, чтобы получить отличные результаты» — подчеркивает практический совет. Рекомендация: начните с меньшей модели, чтобы протестировать рабочий процесс, а затем масштабируйте по мере необходимости.
Для контекста: MacBook Air начального уровня с 8 гигабайтами RAM будет испытывать сложности с большинством способных моделей кодирования. Но MacBook Pro с 32 гигабайтами — все более распространен среди профессиональных разработчиков — с ними работает комфортно.
Почему держать ваш код вне облака важнее, чем когда-либо
Goose с локальной LLM не является идеальной заменой Claude Code. Сравнение включает реальные компромиссы, которые разработчики должны понимать.
Качество модели: Claude 4.5 Opus — флагманская модель Anthropic — остаётся, наверное, самым способным AI для задач разработки ПО. Он отлично понимает сложные кодовые базы, следует тонким инструкциям и создаёт высококачественный код с первой попытки. Open-source модели улучшились драматически, но разрыв остаётся — особенно для самых сложных задач.
Один разработчик, перешедший на 200-долларовый план Claude Code, описал разницу честно: «Когда я говорю ‘сделай это современным’, Opus понимает, что я имею в виду. Другие модели дают мне Bootstrap образца 2015 года.»
Context Window: Claude Sonnet 4.5, доступный через API, предлагает огромное окно контекста в один миллион токенов — достаточно, чтобы загрузить целые большие кодовые базы без chunking или проблем управления контекстом. Большинство локальных моделей ограничены 4096 или 8192 токенами по умолчанию, хотя многие можно настроить для более длинных контекстов за счёт увеличенного использования памяти и более медленной обработки.
Скорость: Облачные сервисы типа Claude Code работают на выделенном серверном оборудовании, оптимизированном для AI-вывода. Локальные модели, работающие на потребительских ноутбуках, обычно обрабатывают запросы медленнее. Разница важна для итеративных рабочих процессов, где вы быстро делаете изменения и ждёте AI-обратной связи.
Зрелость инструментов: Claude Code получает преимущество выделенных инженерных ресурсов Anthropic. Такие функции, как prompt caching (которое может снизить затраты на 90 процентов для повторяющихся контекстов) и структурированные выходы, отполированы и хорошо задокументированы. Goose, хотя активно разрабатывается со 102 релизами на данный момент, опирается на community contributions и может не иметь эквивалентной отточенности в конкретных областях.
Как Goose сравнивается с Cursor, GitHub Copilot и платным рынком
Goose выходит на переполненный рынок AI-инструментов кодирования, но занимает отличительную позицию.
Cursor, популярный AI-расширенный редактор кода, берёт 20 долларов в месяц за Pro и 200 за Ultra — ценообразование, которое зеркалирует планы Max Claude Code. Cursor предоставляет примерно 4500 запросов Sonnet 4 в месяц на уровне Ultra, модель распределения существенно отличающуюся от почасовых сбросов Claude Code.
Cline, Roo Code и подобные open-source проекты предлагают AI-помощь кодирования, но с различными уровнями автономии и интеграции инструментов. Многие сосредотачиваются на завершении кода скорее, чем на agentive выполнении задач, которое определяет Goose и Claude Code.
CodeWhisperer от Amazon, GitHub Copilot и enterprise-предложения от крупных облачных провайдеров нацелены на большие организации со сложными процессами закупок и выделенными бюджетами. Они менее релевантны для отдельных разработчиков и небольших команд, ищущих лёгкие, гибкие инструменты.
Комбинация Goose настоящей автономии, модельного агностицизма, локального функционирования и нулевой стоимости создаёт уникальное ценовое предложение. Инструмент не пытается конкурировать с коммерческими предложениями по отточенности или качеству модели. Он конкурирует на свободе — финансовой и архитектурной обе.
Возможно ли, что эра 200-долларовых AI-инструментов кодирования заканчивается?
Рынок AI-инструментов кодирования развивается быстро. Open-source модели улучшаются в темпе, которые постоянно сужают разрыв с проприетарными альтернативами. Kimi K2 от Moonshot AI и GLM 4.5 от z.ai теперь достигают близких к Claude Sonnet 4 уровней в бенчмарках — и они свободно доступны.
Если эта траектория будет продолжаться, преимущество качества, которое оправдывает премиум-цены Claude Code, может размыться. Anthropic тогда столкнётся с давлением конкурировать на функциях, пользовательском опыте и интеграции скорее, чем на сырой способности модели.
На данный момент разработчики сталкиваются с четким выбором. Те, кому нужно абсолютно лучшее качество модели, кто может позволить себе премиум-цены и кто принимает ограничения использования, могут предпочесть Claude Code. Те, кто приоритизирует стоимость, конфиденциальность, оффлайн-доступ и гибкость, имеют в Goose подлинную альтернативу.
Факт, что 200-долларовый коммерческий продукт имеет zero-dollar open-source конкурента с сравнимой основной функциональностью, сам по себе замечателен. Он отражает как созревание open-source AI-инфраструктуры, так и аппетит среди разработчиков инструментам, которые уважают их автономию.
Goose не идеален. Он требует больше технической настройки, чем коммерческие альтернативы. Он зависит от аппаратных ресурсов, которые не каждый разработчик имеет. Его модельные опции, хотя и быстро улучшаются, всё ещё отстают от лучших проприетарных предложений на сложные задачи.
Но для растущего сообщества разработчиков эти ограничения — приемлемые компромиссы за что-то все более редкое в AI-ландшафте: инструмент, который действительно принадлежит им.
Goose доступен для скачивания на github.com/block/goose. Ollama доступна на ollama.com. Оба проекта свободны и open source.
Мир AI-кодирования меняется прямо на глазах — open-source решения становятся всё мощнее, а платные инструменты теряют монополию на качество. Будущее за разработчиками, которые выбирают свободу.🔔 Чтобы узнать больше о AI-инструментах, тенденциях в разработке и новостях AI-мира, подпишитесь на мой канал «ProAI» в Telegram!