Компания Apple объявила, что в разработке новых функций Apple Intelligence не использовались аппаратные ускорители Nvidia. Согласно официальному исследовательскому документу Apple, для обработки данных обучения, необходимых для языковых моделей Apple Intelligence Foundation, использовались чипы Google TPU.
Чипы Google TPUv4 и TPUv5 сыграли ключевую роль в создании моделей Apple Foundation Models (AFM). Эти модели, такие как AFM-server и AFM-on-device, были созданы для реализации онлайн и офлайн-услуг Apple Intelligence, о которых было сообщено на WWDC 2024 в июне.
AFM-сервер представляет собой самый крупный LLM от Apple и функционирует исключительно в онлайне. Как указано в недавно опубликованном исследовательском отчете, AFM-сервер был обучен с использованием 8192 чипов TPUv4, организованных в 8 комплектов по 1024 чипа, соединенных через сеть центра обработки данных. Компания Apple заявила, что для создания своей модели AFM использовались данные, собранные с помощью веб-сканера Applebot, а также различные лицензированные наборы данных высокого качества. Кроме того, в процесс обучения включались специально отобранный код, математические алгоритмы и общедоступные наборы данных.
Хотя версия ARM, используемая на устройствах, имеет значительно меньше параметров, Apple полагает, что их метод дистилляции знаний позволил добиться высокой производительности и эффективности у этой сокращенной модели. В докладе упоминается, что AFM на устройствах состоит из 3 миллиардов параметров.
Интересно, что Apple опубликовала такой детализированный отчет, описывающий методы и технологии Apple Intelligence. Хотя компания давно не отличалась прозрачностью, сейчас она, похоже, стремится продемонстрировать свои достижения в области искусственного интеллекта, возможно, из-за отставания от конкурентов.