Liquid AI представили семейство LFM 2.5 — on-device модели ~1–1.6B параметров, заточенные под локальные агенты, мобильные устройства, автомобили и IoT. Без облака, без «потом докачаем», всё сразу. Что важно по фактам: • архитектура LFM2 → LFM2.5 • претрейн увеличен с 10T до 28T токенов • серьёзно расширен RL-посттрейнинг • упор на instruction-following и tool-use • открытые веса, сразу доступны Линейка: • Base — для тонкой донастройки • Instruct — универсальный вариант • JP — отдельная японская модель (и да, она реально лучше) • Vision-Language 1.6B — мульти-изображения + мультиязычность • Audio 1.5B — нативный аудио-язык без ASR→LLM→TTS пайплайна По бенчмаркам: LFM2.5-1.2B-Instruct уверенно обходит Llama 3.2 1B, Gemma 3 1B и часто дышит в спину моделям крупнее. Особенно в IFBench, IFEval, Multi-IF и AIME25. При этом быстрее и экономнее по памяти. Аудио-модель: • собственный detokenizer • до 8× быстрее на мобильных CPU • QAT INT4 с минимальной потерей качества • реально низкая заде
Ну что, Liquid AI выкатили LFM 2.5 — и это как раз тот случай, когда «маленькая модель» перестаёт быть оправданием
6 января6 янв
1 мин