Добавить в корзинуПозвонить
Найти в Дзене

Siri станет умнее, но не «по-яблочному»: Apple переводит ассистента на Gemini от Google — что это значит для вас

Если вы ждали, что Apple однажды “просто возьмёт и починит Siri” — вот он, момент. Но есть нюанс: чинить будут не только внутри Купертино. Apple и Google официально объявили многолетнее сотрудничество: следующее поколение Apple Foundation Models будет опираться на модели Gemini и облачные технологии Google, а это должно дать Apple Intelligence новые возможности — включая более персональную Siri в 2026 году. И теперь главный вопрос: это победа пользователя или “поворот не туда”? Потому что Apple редко делает такие ходы публично. Если компания выбирает внешнюю ИИ-платформу как основу, это обычно означает одно: нужно ускоряться, иначе рынок уедет дальше. И да, в медиа это прямо связывают с тем, что обновление Siri затягивалось. Без фантазий — только вероятные эффекты, которые обычно дают LLM-модели в роли ассистента: Да — Siri уже может обращаться к ChatGPT, если пользователь разрешит (это описано в документации Apple).
Но это выглядело как “подстраховка на сложные вопросы”. А теперь Go
Оглавление

Если вы ждали, что Apple однажды “просто возьмёт и починит Siri” — вот он, момент. Но есть нюанс: чинить будут не только внутри Купертино.

Apple и Google официально объявили многолетнее сотрудничество: следующее поколение Apple Foundation Models будет опираться на модели Gemini и облачные технологии Google, а это должно дать Apple Intelligence новые возможности — включая более персональную Siri в 2026 году.

И теперь главный вопрос: это победа пользователя или “поворот не туда”?

Что случилось на самом деле (коротко и без воды)

  • Да, это официально: совместное заявление Apple/Google прямо говорит, что фундаментальные модели Apple следующего поколения строятся на базе Gemini и облачных технологий Google.
  • Цель — оживить Siri и Apple Intelligence: речь не про “косметику”, а про новую базу для ИИ-функций, где Siri должна стать заметно более персональной.
  • Сроки — 2026: Reuters пишет о релизе обновлённой Siri позже в 2026 году (на фоне прошлых задержек).

Почему это звучит как “Apple устала терпеть”

Потому что Apple редко делает такие ходы публично. Если компания выбирает внешнюю ИИ-платформу как основу, это обычно означает одно: нужно ускоряться, иначе рынок уедет дальше.

И да, в медиа это прямо связывают с тем, что обновление Siri затягивалось.

Что вы почувствуете на iPhone, когда Gemini реально “включат”

Без фантазий — только вероятные эффекты, которые обычно дают LLM-модели в роли ассистента:

  1. Siri перестанет “сыпаться” на сложных запросах

    Не «поставь будильник», а “составь план”, “сравни варианты”, “объясни простыми словами”, “вытащи смысл из текста”. Именно там старой Siri было тяжело.
  2. Появится “мозг”, который понимает контекст, а не отдельные команды

    Умный ассистент — это не кнопка, это диалог. Apple прямо продвигает идею более персональной Siri в рамках Apple Intelligence.
  3. Ставки на приватность будут проверяться делом, а не словами

    Apple подчёркивает, что изменения должны укладываться в её стандарты приватности (часть вычислений — на устройстве и через “private cloud”). Reuters тоже отмечает фокус Apple на приватности в контексте обновления Siri.

“Подождите, но Siri же уже умеет ChatGPT?”

Да — Siri уже может обращаться к ChatGPT, если пользователь разрешит (это описано в документации Apple).

Но это выглядело как “подстраховка на сложные вопросы”. А теперь Google закрепляется глубже: Gemini становится фундаментом для будущих моделей и функций Apple Intelligence.

Вот где начинается интрига (и почему новость реально горячая)

Apple и Google уже давно связаны крупными контрактами (например, вокруг поиска). И теперь — новый уровень: ИИ-ядро для ключевого ассистента iPhone. Reuters отдельно отмечает, что эта сделка усиливает позиции Alphabet и расширяет влияние Google через экосистему Apple.

Отсюда и шум: известные фигуры рынка уже публично спорят о том, не получает ли Google “слишком много рычагов”.

Что делать прямо сейчас (если вы обычный пользователь)

  1. Не паниковать: это не “Google читает ваш iPhone”. Речь про новую архитектуру моделей, детали контроля и маршрутизации данных будут важнее заголовков.
  2. Следить за настройками Apple Intelligence: именно там обычно появляются переключатели “разрешить/запретить внешние модели”. (Когда Apple раскроет детали — будет ясно, что включено по умолчанию.)
  3. Скептически относиться к “инсайдам” про точные версии iOS: часть из этого пока на уровне предположений отраслевых медиа.

Вывод

Apple делает шаг, который ещё недавно казался невозможным: Siri в 2026 году будет умнее — потому что в её основе окажется Gemini.

Для вас это может означать наконец-то нормального ассистента. Но интрига в другом:
как именно Apple реализует “умнее” без компромисса по приватности — и что будет включено по умолчанию.