Пока OpenAI гонятся за сверхинтеллектом, другие ИИ-гиганты делают неожиданный поворот. Google, Meta, Microsoft начали выпускать «миниатюрные» языковые модели. Подробнее и что же это такое в новой заметке от Axevil Capital.
В таких ИИ-моделях всего от 3 до 8 млрд параметров. Для сравнения, флагманские модели по типу GPT-4 имеют более 1 трлн параметров — на 3 порядка выше.
Но зачем вдруг понадобились маленькие модели, если они заведомо проигрывают по качеству? Всё дело в том, что миниатюрность ИИ открывает крайне полезные свойства:
1. Локальный запуск на обычных смартфонах и ноутбуках. Для большинства задач не нужны гигантские ИИ-модели — маленькие идеально подходят для простых, повседневных операций. И даже не нужен интернет, чтобы пользоваться плодами работы ИИ.
2. Полная приватность данных. Они не уходят в стороннее облако, что особенно важно для компаний.
3. Мгновенная обработка запроса. ИИ-ассистенту не нужно ходить в далёкие датацентры — всё выполняется прямо на вашем устройстве, будь то смартфон или VR-очки.
И среди компаний началась настоящая гонка маленьких моделей. За последние месяцы на этот ринг вышли: Google с моделью Gemma-2, Microsoft с Phi-3, Meta с MobileLLM. Apple также активно готовится внедрять локальные ИИ-модели в новых iPhone.
Главные игроки Anthropic и OpenAI тоже представлены в этом сегменте — с моделями Haiku и GPT-4o Mini. Здесь у Anthropic есть преимущество в гибкости, потому что у них доступны 3 модели на любые нужды и бюджеты.
⚡ Будущее ИИ может оказаться не в облаках, а прямо у нас в кармане. Для инвесторов это сигнал: не стоит фокусироваться только на гигантских моделях. Разработчики эффективного мини-ИИ и приложений на его основе вполне могут стать «темными лошадками» рынка.
Чтобы следить за выходом новых материалов, подписывайтесь на наш аккаунт. Делитесь с друзьями и до скорого!