Meta* выпустила новое поколение своих ИИ-моделей – Llama 4, впервые применив в своей линейке архитектуру “mixture of experts” (MoE). Технология распределяет задачи между специализированными нейронными сетями, чтобы сэкономить ресурсы и повысить эффективность работы. В линейку вошли две модели с 17 миллиардами активных параметров: компактная Scout с 16 экспертами и продвинутая Maverick со 128 экспертами. Meta* заявляет, что Maverick превосходит даже GPT-4o по некоторым метрикам, а Scout может похвастаться самым большим на данный момент контекстным окном в 10 миллионов токенов – достаточно для анализа целых книжных серий или больших кодовых баз. При ближайшем рассмотрении открываются любопытные нюансы. Версия Maverick, показавшая высокие результаты на платформе LM Arena, оказалась «оптимизированной для бесед» и отличается от публично доступной версии по стилю речи и использованию эмодзи. Это наводит на мысль о целенаправленной «подгонке» под конкретные бенчмарки. Ещё интереснее ситуация