🔓⚡⚡ Trinity-Mini: 26B MoE-модель от Arcee AI с 128k контекстом и FP8-оптимизацией
Arcee AI представили Trinity-Mini — компактную MoE (Mixture of Experts — модель активирует только часть параметров для каждого токена) архитектуру на 26B параметров, из которых активны всего 3B. Модель обучена на колоссальном датасете в 10 триллионов токенов и оптимизирована под сложные рассуждения и кодинг. Главная фишка этого релиза — официальный FP8-квант с поблочным скалированием. Это позволяет запускать модель практически без потери качества, но с ДЕСЯТИКРАТНЫМ преимуществом в пропускной способности на картах NVIDIA Hopper (H100/H200)...