Добавить в корзинуПозвонить
Найти в Дзене

Триллион параметров в кармане: как Apple с помощью Google превратит Siri в гения

Триллион параметров в кармане: как Apple с помощью Google превратит Siri в гения Издание Bloomberg сообщило на этой неделе, что Google и Apple близки к заключению партнерского соглашения стоимостью около миллиарда долларов ежегодно. По условиям сделки поисковый гигант предоставит Купертино версию своей языковой модели Gemini, которая станет основой для обновленного голосового ассистента Siri уже в следующем году. Впрочем, куда интереснее самой цены выглядит техническая начинка этого решения — именно она определит, насколько умным станет помощник для миллионов пользователей. Согласно информации Bloomberg, Google передаст Apple модель с 1,2 триллиона параметров, которая будет работать на серверах Private Cloud Compute. Это означает, что поисковая корпорация не получит доступа ни к каким данным пользователей — с точки зрения приватности решение выглядит безупречно. Что касается размера модели, то 1,2 триллиона параметров — это действительно впечатляющая цифра, хотя прямо сравнивать с ко

Триллион параметров в кармане: как Apple с помощью Google превратит Siri в гения

Издание Bloomberg сообщило на этой неделе, что Google и Apple близки к заключению партнерского соглашения стоимостью около миллиарда долларов ежегодно. По условиям сделки поисковый гигант предоставит Купертино версию своей языковой модели Gemini, которая станет основой для обновленного голосового ассистента Siri уже в следующем году. Впрочем, куда интереснее самой цены выглядит техническая начинка этого решения — именно она определит, насколько умным станет помощник для миллионов пользователей.

Согласно информации Bloomberg, Google передаст Apple модель с 1,2 триллиона параметров, которая будет работать на серверах Private Cloud Compute. Это означает, что поисковая корпорация не получит доступа ни к каким данным пользователей — с точки зрения приватности решение выглядит безупречно. Что касается размера модели, то 1,2 триллиона параметров — это действительно впечатляющая цифра, хотя прямо сравнивать с конкурентами сложно. Дело в том, что основные игроки на рынке, включая OpenAI, Anthropic и сам Google перестали раскрывать точное количество параметров своих флагманских моделей, что породило массу спекуляций. Никто достоверно не знает, сколько параметров содержат GPT-5, Gemini 2.5 Pro или Claude Sonnet 4.5 — оценки варьируются от нескольких сотен миллиардов до триллиона и более.

Однако большинство современных крупных моделей объединяет одна особенность — архитектура под названием «смесь экспертов» (Mixture of Experts, MoE). Apple уже использует вариацию этого подхода в своей текущей облачной модели, которая, по слухам, насчитывает 150 миллиардов параметров. Суть MoE заключается в том, что модель состоит из множества специализированных под-моделей — «экспертов», и для каждого запроса активируется только несколько релевантных из них. Это позволяет создавать модели с астрономическим количеством параметров, но при этом сохранять вычислительную эффективность на приемлемом уровне. Например, модель на 1,2 триллиона параметров может содержать 32 эксперта, но для каждого запроса активируется лишь 2-4 из них — то есть реально работает только 75-150 миллиардов параметров, что сравнимо с запуском гораздо более компактной модели.

Стоит отметить, что официальной информации об архитектуре модели, которую Google может предоставить Apple, пока нет — сделка еще не заключена. Но учитывая заявленные 1,2 триллиона параметров и современные технологические реалии, применение подхода MoE выглядит практически неизбежным. В противном случае запуск такой махины потребовал бы вычислительных мощностей, способных разорить даже самую богатую компанию в мире. А это уже не смешно — даже для Apple.

@fixed