Пока OpenAI гонятся за сверхинтеллектом, другие ИИ-гиганты делают неожиданный поворот. Google, Meta, Microsoft начали выпускать «миниатюрные» языковые модели. Подробнее и что же это такое в новой заметке от Axevil Capital. В таких ИИ-моделях всего от 3 до 8 млрд параметров. Для сравнения, флагманские модели по типу GPT-4 имеют более 1 трлн параметров — на 3 порядка выше. Но зачем вдруг понадобились маленькие модели, если они заведомо проигрывают по качеству? Всё дело в том, что миниатюрность ИИ открывает крайне полезные свойства: 1. Локальный запуск на обычных смартфонах и ноутбуках. Для большинства задач не нужны гигантские ИИ-модели — маленькие идеально подходят для простых, повседневных операций. И даже не нужен интернет, чтобы пользоваться плодами работы ИИ. 2. Полная приватность данных. Они не уходят в стороннее облако, что особенно важно для компаний. 3. Мгновенная обработка запроса. ИИ-ассистенту не нужно ходить в далёкие датацентры — всё выполняется прямо на вашем устройстве, б
Размер имеет значение: почему мини-ИИ может стать прорывом
1 августа 20241 авг 2024
2
1 мин