NVIDIA представила Nemotron 3 Super 120B — открытую языковую модель для создания систем из множества ИИ-агентов. Эта гибридная нейросеть с 120 миллиардами параметров ускоряет обработку сложных задач в 5 раз по сравнению с прошлыми версиями. Гибридная архитектура сочетает Mamba и Transformer. Во время вывода активируются только 12 миллиардов параметров из 120. Это снижает нагрузку на серверы, экономит память в 4 раза и повышает эффективность. Представьте: агент анализирует тысячи страниц отчета за минуты, не теряя деталей. Модель первая в серии Nemotron 3 с ключевыми инновациями. Она использует LatentMoE для точности, слои Multi-Token Prediction (MTP) для спекулятивного декодирования и предобучение в формате NVFP4. NVFP4 дает 4-кратное ускорение на платформе Blackwell по сравнению с FP8 на H100. Пропускная способность выросла: в 2,2 раза выше GPT-OSS-120B и в 7,5 раз выше Qwen3.5-122B при 8000 токенах входа и 16000 на выходе. Точность сопоставима или лучше этих моделей в тестах. Контек
Nvidia запустила открытую модель Nemotron 3 Super
13 марта13 мар
2 мин