Представьте: вместо одного огромного ИИ-помощника, который живет где-то в облаке, у вас будет целая армия маленьких специалистов. Один сидит в телефоне и переводит, другой в ноутбуке извлекает данные, третий в умных часах отвечает на вопросы. Причем все это работает без интернета!
Именно такое будущее видит стартап Liquid AI. И знаете что? Они не просто мечтают — они уже запустили целое семейство из шести различных ИИ-моделей под названием Liquid Nanos. Это прямая альтернатива гигантам вроде GPT, Claude и Gemini.
Маленькие, да удаленькие
Liquid Nanos — это специализированные модели размером от 350 миллионов до 2,6 миллиарда параметров. Для сравнения: GPT-4 имеет больше триллиона параметров! Но вот что удивительно — эти «малыши» справляются со своими задачами не хуже, а иногда и лучше гигантов.
Главная фишка в том, что они работают прямо на ваших устройствах. Телефон, ноутбук, даже датчики и роботы — все это может стать умнее без постоянного подключения к интернету. Занимают всего 100МБ — 2ГБ памяти.
В компании прямо говорят:
«В нашем обществе люди не будут использовать одного универсального помощника. Вместо этого они будут полагаться на множество маленьких, специализированных агентов, которые живут на их устройствах, в приложениях и сервисах. Быстро получается около 100 агентов на человека.»
Звучит как фантастика? А ведь логично!
Шесть специалистов на все случаи жизни
Каждая модель в линейке Liquid Nanos заточена под конкретные задачи:
- LFM2-Extract — извлекает структурированные данные из любого текста. Превращает емейлы в JSON, отчеты в XML
- LFM2-350M-ENJP-MT — переводит между английским и японским в обе стороны
- LFM2-1.2B-RAG — отвечает на вопросы, опираясь на ваши документы
- LFM2-1.2B-Tool — вызывает нужные функции и инструменты с минимальной задержкой
- LFM2-350M-Math — решает математические задачи
- Luth-LFM2 — франкоязычная серия от сообщества разработчиков
И вот что меня поразило больше всего: модель для извлечения данных размером 1,2 миллиарда параметров работает лучше, чем Gemma 3 с 27 миллиардами параметров. То есть в 20 раз меньше размер, а результат лучше!
Результаты тестов впечатляют
По данным компании, их модели показывают отличные результаты в специализированных тестах. Модель для перевода на японский конкурирует с GPT-4o. RAG-модель превосходит аналоги по точности и полезности ответов.
Французская серия Luth-LFM2 вообще удивила — улучшила результаты по французскому языку и одновременно подтянула английский. Получается, специализация может даже помочь в смежных областях.
Как получить и сколько стоит
Хорошие новости: все модели доступны уже сейчас! Скачать можно через платформу Liquid Edge AI Platform (LEAP) для iOS, Android и ноутбуков. Есть и на Hugging Face.
Но есть нюанс с лицензией. Она называется LFM Open License v1.0 и работает по принципу «доходы решают все»:
- Если ваша компания зарабатывает меньше 10 миллионов долларов в год — пользуйтесь бесплатно
- Исследователи, некоммерческие организации, частные лица — тоже бесплатно
- Крупный бизнес должен договариваться отдельно
То есть стартапы и небольшие компании могут экспериментировать без ограничений, а вот гигантам придется платить. Справедливо, кстати.
Кроме того, есть бесплатное приложение Apollo в App Store, где можно потестировать модели прямо на телефоне.
Почему маленькие модели — это будущее
Последние годы ИИ развивался по принципу «больше параметров — лучше результат». Но у этого подхода есть проблемы:
- Огромные затраты на инфраструктуру
- Зависимость от интернета
- Проблемы с приватностью
- Высокие задержки
Рамин Хасани, сооснователь и CEO Liquid AI (бывший исследователь MIT), отмечает интересный факт: к 2027 году в дата-центры планируют инвестировать больше триллиона долларов. Но экономика такого подхода под вопросом.
«Более устойчивый подход — гибридный. Легкие задачи обрабатываются на устройствах, сложные отправляются в облако», — объясняет он.
И добавляет в своем посте в X: «Давайте переместим средний токен на периферию!» Забавно звучит, но суть понятна.
История компании в двух словах
Liquid AI основали бывшие исследователи из MIT CSAIL. С самого начала они шли против течения — вместо популярной трансформерной архитектуры (как у GPT) строили модели на принципах динамических систем и обработки сигналов.
Первый релиз случился в сентябре 2024 года — Liquid Foundation Models (LFM). В апреле 2025-го выпустили Hyena Edge для смартфонов. В июле представили LFM2 — в два раза быстрее предыдущего поколения.
И вот теперь Liquid Nanos — логичное продолжение идеи о том, что ИИ должен жить рядом с пользователем, а не в далеком дата-центре.
Что дальше?
Liquid AI делает ставку на то, что будущее за множеством маленьких специализированных моделей, а не за одним универсальным гигантом. И знаете что? Это может оказаться правильной стратегией.
Представьте мир, где каждое ваше устройство умное, но при этом не зависит от интернета и не отправляет ваши данные неизвестно куда. Где ИИ работает мгновенно, потому что он рядом. Где не нужно платить за каждый запрос к облачному сервису.
Возможно, именно так и будет выглядеть настоящая ИИ-революция — не в виде одного сверхразума, а как множество умных помощников, каждый из которых отлично делает свое дело.
Следите за развитием edge AI и других прорывных технологий в сфере искусственного интеллекта🔔 Чтобы узнать больше о новых ИИ-моделях, edge computing и следить за новостями мира ИИ, подписывайтесь на мой канал «ProAI» в Telegram!