ИИ прямо на устройствах. Gemini генерирует не только ответы, но и цепочку рассуждений — её можно использовать как богатый источник обучающих данных для меньшей модели. По сути Apple платит за «генерацию учебников» и затем учит свои локальные копии давать те же ответы быстрее и без облака. Почему это важно: • 💡 быстрый оффлайн‑ИИ — меньше загрузки на сервера и лучше приватность; • ⚡ экономия ресурсов устройств — модели компактнее и энергоэффективнее; • 📌 но есть риск: Gemini ориентирован на чат/энтерпрайз, не на Siri — нужна адаптация и верификация ответов. Ожидаем новости на WWDC в июне — возможно первые фрагменты такой работы увидим там. Подробнее тут
🔹 Apple договорилась с Google про полноценный доступ к Gemini и собирается создавать облегчённые модели через distillation, чтобы запускать
27 марта27 мар
~1 мин