Siri долгое время отставала от конкурентов, таких как Google Assistant и Alexa, в возможностях понимания контекста и естественного языка. Теперь Apple ищет способы исправить это, обсуждая партнерство с ведущими разработчиками ИИ.
Пользователи Siri часто жалуются на ее ограниченные функции. Помощник плохо справляется с многошаговыми диалогами и сложными запросами, так как работает по жесткому набору команд. В отличие от современных ИИ-моделей, Siri не умеет адаптироваться к разным формулировкам вопросов.
По данным Bloomberg, Apple ведет переговоры с OpenAI и Anthropic, чтобы интегрировать их технологии в Siri. Компания тестирует модели обоих разработчиков на своих серверах Private Cloud Compute. Внутренние испытания показывают, что решение от Anthropic лучше подходит для нужд Siri. Однако переговоры осложняются финансовыми условиями — Anthropic запрашивает многомиллиардную сделку.
Apple пока не отказалась от собственной разработки ИИ, но ее языковая модель все еще не готова. В марте компания объявила о задержке новых функций Siri до 2026 года, что вызвало критику. Теперь Apple планирует добавить их в iOS 26, а партнерство с OpenAI или Anthropic может ускорить процесс.
Пока неизвестно, выберет ли Apple одного из партнеров или продолжит самостоятельную разработку. Но ясно одно — Siri нуждается в серьезном обновлении, чтобы догнать конкурентов.