Ollama улучшила производительность локальных моделей на Mac, добавив поддержку открытой MLX-рамки от Apple. Это особенно важно для разработчиков, кто работает с большими языковыми моделями — теперь модели запускаются быстрее и эффективнее. Поддержка MLX позволила Ollama оптимизировать использование памяти на устройствах с процессорами Apple Silicon (M1 и новее). Теперь разработчикам доступна повышенная производительность за счёт улучшенного кэширования и поддержки формата NVFP4 для сжатия моделей. Например, новые нейропроцессоры M5 обеспечивают значительные преимущества в скорости обработки токенов и времени отклика, что становится заметным при работе с объёмными моделями, такими как 35-миллиардная версия Qwen3.5 от Alibaba. Сейчас как никогда актуально экспериментировать с локальными AI-моделями. Успех OpenClaw, которая быстро набрала более 300,000 звезд на GitHub, вдохновил многих разработчиков проводить эксперименты на своих устройствах. Как показывает практика, рост цен на подписки
Ollama внедрила поддержку MLX — производительность на Mac выросла
1 апреля1 апр
2 мин