Найти в Дзене
Электроника Best

M5 разрывает M4: локальный ИИ работает в 3,8 раза быстрее!

Когда Apple представила чип M5, многим показалось, что обновление получилось “косметическим”. Но, судя по свежим данным из блога Apple Machine Learning Research, самое главное улучшение M5 спрятано не в маркетинговых слайдах — а в том, как этот чип работает с локальными LLM-моделями. Если коротко: новый M5 стал заметно быстрее при генерации текста и изображений прямо на устройстве, без интернета и серверов. И именно такие задачи в ближайшие годы станут главными. Несколько лет назад Apple выпустила свой фреймворк MLX. Если объяснять - это такая “операционная система для ИИ внутри Mac”.
Она позволяет: По сути, MLX сделал возможным то, о чём пару лет назад только мечтали: локальный ChatGPT-уровень прямо на ноутбуке, без облаков. И теперь Apple на практике показала, как новое поколение её чипов раскрывает потенциал этого фреймворка. Apple запустила несколько популярных моделей: Qwen 1.7B, Qwen 8B, Qwen 14B (в 4-битной версии), Qwen 30B MoE, GPT OSS 20B. И сравнила две вещи:. Скорость гене
Оглавление

Когда Apple представила чип M5, многим показалось, что обновление получилось “косметическим”. Но, судя по свежим данным из блога Apple Machine Learning Research, самое главное улучшение M5 спрятано не в маркетинговых слайдах — а в том, как этот чип работает с локальными LLM-моделями.

Если коротко: новый M5 стал заметно быстрее при генерации текста и изображений прямо на устройстве, без интернета и серверов. И именно такие задачи в ближайшие годы станут главными.

Что такое MLX — и зачем Apple вообще этим занимается?

Несколько лет назад Apple выпустила свой фреймворк MLX. Если объяснять - это такая “операционная система для ИИ внутри Mac”.

Она позволяет:

  • запускать локальные языковые модели прямо на Mac,
  • работать с привычными инструментами вроде NumPy,
  • загружать модели с HuggingFace,
  • ускорять генерацию текста, изображений, кода,
  • использовать квантование (то самое, что уменьшает размер моделей).

По сути, MLX сделал возможным то, о чём пару лет назад только мечтали: локальный ChatGPT-уровень прямо на ноутбуке, без облаков.

И теперь Apple на практике показала, как новое поколение её чипов раскрывает потенциал этого фреймворка.

M5 против M4: кто быстрее генерирует текст?

Apple запустила несколько популярных моделей: Qwen 1.7B, Qwen 8B, Qwen 14B (в 4-битной версии), Qwen 30B MoE, GPT OSS 20B.

И сравнила две вещи:.

Скорость генерации первого токена — когда модель только начинает отвечать.

Скорость генерации последующих токенов — то есть “скорость разговора”.

Результаты (простыми словами):

Начало ответа — намного быстрее на M5

Продолжение ответа — на 19–27% быстрее, чем на M4

То есть диалог с моделью на M5 ощущается более “живым”: паузы короче, генерация быстрее.

-2

Почему M5 так ускорился?

Это самое интересное.

  1. Новая архитектура GPU

В M5 появился нейронный ускоритель, который умеет выполнять сложные матричные операции — основу всего ИИ — значительно эффективнее.

Именно GPU в M5 делает тяжёлую работу за LLM-модели.

2. Сильное увеличение пропускной способности памяти

  • M4 → 120 ГБ/с
  • M5 → 153 ГБ/с

Рост — на 28%, и это критично для генерации текста.

3. Оптимизация под большие модели

На MacBook Pro с 24 ГБ оперативной памяти можно спокойно запускать модели:

  • 8–14B в BF16
  • MoE-модели 20–30B в 4-битном формате

И получать стабильный вывод без тормозов.

Ускорение генерации изображений — вот где M5 удивил

Apple провела ещё один тест — генерацию картинок.

И тут M5 буквально
улетел вперёд: M5 создаёт изображения в 3,8 раза быстрее, чем M4. Это огромный скачок.

По сути,
MacBook с M5 превращается в локальную мини-станцию для генерации артов, визуализаций, обложек, аватаров или дизайна.

Почему Apple так акцентирует внимание на локальном ИИ?

Потому что весь рынок движется в сторону:

  • приватных моделей, работающих без облаков,
  • быстрых офлайн-ассистентов,
  • локального кода,
  • конфиденциального анализа данных (фото, заметок, документов).

Apple делает ставку на приватность, и локальный ИИ — основа этой стратегии.

Что это значит для обычных пользователей?

Если упрощать:

  • MacBook на M5 будет быстрее генерировать текст и изображения.
  • Локальные модели будут работать без “задумчивых пауз”.
  • ИИ-функции macOS станут почти мгновенными.
  • Большие модели, которые раньше запускались через усилия, будут работать нормально из коробки.
-3

Короткий итог

Если вы работаете с ИИ-генерацией, большими моделями или активно изучаете ML — M5 однозначно стоит внимания. Прирост ощутимый, не маркетинговый.

Если же ваш
Mac используется в основном для браузера и офисных задач — разница может быть не такой заметной.

А что думаете вы? Есть ли смысл обновляться до M5, или M4 пока «живёт» нормально? Пишите в комментариях — очень интересно узнать мнение!

#Apple #MacBook #M5 #M4 #AppleSilicon #ИИ #MLX #новостиApple #MacBookPro #LLM #BestMagazin