🐘 - 24 млрд параметров всего - активны только 2,3 млрд на каждый токен - построена на гибридной, аппаратно-оптимизированной архитектуре LFM2 Модель сочетает быстрый и экономичный дизайн LFM2 с архитектурой Mixture of Experts (MoE), благодаря чему при работе задействуется лишь небольшая часть параметров. Результат: - высокая энергоэффективность - быстрая работа на edge-устройствах - предсказуемый лог-линейный рост качества - полный запуск в пределах 32 ГБ памяти С выходом этой версии линейка LFM2 теперь охватывает почти два порядка масштаба — от 350 млн до 24 млрд параметров, при этом каждое увеличение размера даёт стабильный рост качества на стандартных бенчмарках. Модель специально оптимизирована так, чтобы помещаться в 32 ГБ RAM — её можно запускать на потребительских ноутбуках и рабочих станциях. Стратегия масштабирования: - увеличить глубину сети (с 24 до 40 слоёв) - увеличить число экспертов (с 32 до 64 в каждом MoE-блоке) - сохранить компактный активный путь вычислений Ит
Liquid AI представила свою крупнейшую модель - LFM2-24B-A2B
2 дня назад2 дня назад
13
1 мин