Нейросети с открытым исходным кодом тратят значительно больше ресурсов на обработку запросов, чем их закрытые аналоги. К такому выводу пришел исследователь под псевдонимом Tim (@cpldcpu), изучив эффективность работы языковых моделей разных разработчиков. По данным анализа, ИИ с открытым кодом используют в 1,5–4 раза больше токенов при решении схожих задач, чем закрытые модели OpenAI и Grok-4. В простых вопросах, не требующих рассуждений, например, «Столицей какой страны является Канберра?» — разница может быть десятикратной. Несмотря на то что модели с открытым кодом часто дешевле в использовании, их склонность к «многословию» делает итоговую стоимость запроса сопоставимой или даже выше. «Закрытые модели, например GPT от OpenAI, оптимизированы для минимального количества токенов, что снижает затраты и ускоряет генерацию ответов», — отмечает Tim. Открытые модели, напротив, чаще полагаются на длинные цепочки рассуждений (Chain of Thought), что может объяснять их высокое потребление токен