Пользователи Apple Silicon Mac получат прирост производительности благодаря улучшенному использованию унифицированной памяти в Ollama с поддержкой MLX. — arstechnica.com Ollama, система времени выполнения для запуска больших языковых моделей на локальном компьютере, внедрила поддержку фреймворка машинного обучения MLX с открытым исходным кодом от Apple (MLX). Кроме того, Ollama заявляет об улучшении производительности кэширования и теперь поддерживает формат NVFP4 от Nvidia для сжатия моделей (NVFP4), что обеспечивает гораздо более эффективное использование памяти в некоторых моделях. В совокупности эти разработки обещают значительно улучшенную производительность на компьютерах Mac с чипами Apple Silicon (M1 или новее) — и это очень своевременно, поскольку локальные модели начинают набирать обороты так, как этого не происходило ранее за пределами исследовательских и любительских сообществ. Недавний ошеломляющий успех OpenClaw — который набрал более 300 000 звезд на GitHub, попал в заго
Локальный запуск нейросетей на Mac стал быстрее благодаря поддержке MLX в Ollama
1 апреля1 апр
3 мин