Найти в Дзене
end0

Ну что, Liquid AI выкатили LFM 2.5 — и это как раз тот случай, когда «маленькая модель» перестаёт быть оправданием

Liquid AI представили семейство LFM 2.5 — on-device модели ~1–1.6B параметров, заточенные под локальные агенты, мобильные устройства, автомобили и IoT. Без облака, без «потом докачаем», всё сразу. Что важно по фактам: • архитектура LFM2 → LFM2.5 • претрейн увеличен с 10T до 28T токенов • серьёзно расширен RL-посттрейнинг • упор на instruction-following и tool-use • открытые веса, сразу доступны Линейка: • Base — для тонкой донастройки • Instruct — универсальный вариант • JP — отдельная японская модель (и да, она реально лучше) • Vision-Language 1.6B — мульти-изображения + мультиязычность • Audio 1.5B — нативный аудио-язык без ASR→LLM→TTS пайплайна По бенчмаркам: LFM2.5-1.2B-Instruct уверенно обходит Llama 3.2 1B, Gemma 3 1B и часто дышит в спину моделям крупнее. Особенно в IFBench, IFEval, Multi-IF и AIME25. При этом быстрее и экономнее по памяти. Аудио-модель: • собственный detokenizer • до 8× быстрее на мобильных CPU • QAT INT4 с минимальной потерей качества • реально низкая заде

Ну что, Liquid AI выкатили LFM 2.5 — и это как раз тот случай, когда «маленькая модель» перестаёт быть оправданием.

Liquid AI представили семейство LFM 2.5 — on-device модели ~1–1.6B параметров, заточенные под локальные агенты, мобильные устройства, автомобили и IoT. Без облака, без «потом докачаем», всё сразу.

Что важно по фактам: • архитектура LFM2 → LFM2.5

• претрейн увеличен с 10T до 28T токенов

• серьёзно расширен RL-посттрейнинг

• упор на instruction-following и tool-use

• открытые веса, сразу доступны

Линейка: • Base — для тонкой донастройки

• Instruct — универсальный вариант

• JP — отдельная японская модель (и да, она реально лучше)

• Vision-Language 1.6B — мульти-изображения + мультиязычность

• Audio 1.5B — нативный аудио-язык без ASR→LLM→TTS пайплайна

По бенчмаркам: LFM2.5-1.2B-Instruct уверенно обходит Llama 3.2 1B, Gemma 3 1B и часто дышит в спину моделям крупнее. Особенно в IFBench, IFEval, Multi-IF и AIME25. При этом быстрее и экономнее по памяти.

Аудио-модель: • собственный detokenizer

• до 8× быстрее на мобильных CPU

• QAT INT4 с минимальной потерей качества

• реально низкая задержка end-to-end

Деплой из коробки: llama.cpp, MLX (Apple Silicon), vLLM, ONNX, NexaML

CPU, GPU и NPU — Apple, AMD, Qualcomm, NVIDIA

Работает сразу, без танцев с бубном

И да — всё это open-weight и уже лежит на Hugging Face.

Коротко: Liquid целятся не в «ещё один чатик», а в будущее локальных агентов. И судя по цифрам, они туда попали.

#AI #OnDeviceAI #EdgeAI #LiquidAI #LLM #OpenSource #VLM #AudioAI #NPUs

-2