🤖 Смотрим на примере свежеиспеченной GPT 5.2 Codex Medium. Даже на medium режиме моделька может задуматься на огромное количество времени, так ничего и не начав делать. При этом, если раскрыть суть ее рассуждений, все эти запуски будут просто гоняться по кругу, пока модель не сожжет весь бюджет токенов, выделенных на рассуждения, хотя, в большинстве случаев, ей бы хватило 1-2 раза это сделать. И дело не в Windsurf, в оригинальном Codex Cli было то же самое. 💡 Поэтому Codex версии либо используем в LOW конфигурации и не даем больше 1 задачи в запросе, либо переходим на версии без "codex" отметки и просто в один запрос закидываем что угодно и будем уверены, что все будет выполнено в кратчайшие сроки. Модель общего назначения проявляет себя эффективнее. Проверено неоднократно, по возможности всегда об этом напоминаю. Главное, не пугайтесь слова "Low". Модель не тупая в этом режиме, это просто градации количества токенов, которые будут выданы модельке для размышлений. По логике всё
Вот почему я не люблю Codex линейку от GPT
15 января15 янв
2
1 мин