Рынок AI‑очков до сих пор ассоциировался в первую очередь с Meta Ray‑Ban (Meta – запрещённая в России) и китайскими экспериментами. Но в 2026‑м у этого рынка может появиться самый тяжёлый конкурент: Google перезапускает собственные AI‑очки — уже не как эксперимент Google Glass, а как продукт на стыке крупной экосистемы, мобильного ИИ и AR‑железа.
По данным утечек, внутри Google сейчас одновременно идут два отдельных проекта AI‑очков, оба уже вышли на стадию POC (малосерийные прототипы, отработка дизайна и компонентной базы).
Аппаратная коалиция: Foxconn, Samsung, Qualcomm, китайские вендоры
Архитектура проекта типична для большого потребительского железа:
- Foxconn — основной производственный партнёр (контрактная сборка);
- Samsung отвечает за референс‑дизайн устройства;
- Qualcomm поставляет чипсет, ориентированный на XR/AI‑нагрузки;
- параллельно Google ведёт переговоры с GoerTek и другими китайскими поставщиками по отдельным компонентам.
Сроки в дорожной карте:
- цель — запуск не раньше Q4 2026 года, то есть у Google есть ~2 года на:
- шлифовку дизайна и эргономики,
- настройку массы мелких UX‑деталей,
- интеграцию с Gemini и Android XR.
По оптике инсайдеры говорят о волноводных (waveguide) стёклах — классическом решении для лёгких AR‑очков, и о наличии встроенной камеры. Это сразу ставит вопрос приватности (ровно тот, на котором когда‑то обломались Google Glass), но без камеры полноценные AI‑очки сегодня почти бессмысленны: им нужно «видеть мир», чтобы работать как ассистент.
Не Aura 2.0: новые проекты живут отдельно
Важно: эти два AI‑проекта не связаны с уже показанным в 2025 году dev‑набором Project Aura, который Google делал вместе с китайским Xreal и позиционировал как AR‑устройство для разработчиков.
- Aura — это больше экран+подключённое устройство для AR‑контента.
- Новые проекты — параллельная линия, изначально заточенная под «умного ассистента на лице»: постоянный доступ к Gemini, контекстное зрительное понимание, голос/жесты как основной ввод.
Руководитель одного из проектов — Michael Klug, платформенный инженер Google Labs и бывший ключевой участник Magic Leap с опытом в светополях и сложной оптике. Это намекает, что Google серьёзно относится к качеству визуального опыта, а не делает очередной «надглазный экранчик для уведомлений».
Уроки Google Glass: от «вау‑гаджета» к прагматичному инструменту
Google — ветеран рынка умных очков:
- 2012 — эффектный запуск Google Glass с шоу‑демонстрацией (скайдайверы, стрим, AR‑оверлеи).
- 2015 — сворачивание продукта для массового рынка:
- негативная реакция из‑за скрытой съёмки в публичных местах,
- отсутствие «убийственных сценариев» для обычного пользователя,
- слабая экосистема под реальное ежедневное использование.
После 2017‑го Google вернулся к этому направлению, но уже:
- осмотрительно и в нишах:
- B2B‑сценарии: логистика, обучение медперсонала, удалённый ремонт;
- как инструмент, а не «гаджет будущего»:
- помогать работать с инструкциями,
- стримить видео эксперту,
- выводить подсказки прямо в поле зрения.
Сейчас новая волна AI‑очков появляется уже в другом контексте:
есть большие языковые модели, «умные» агенты и куда более подготовленная публика, привыкшая к микрофонам, камерам и ассистентам в кармане.
Скрытое преимущество: Google успела подготовить инфраструктуру
Хотя формально Google опоздала к волне AI‑очков Meta, внутри компании уже несколько лет строилась полная стек‑инфраструктура под XR+ИИ:
- Android XR
Совместно с Samsung и Qualcomm в 2023 году был анонсирован спец‑вариант Android под XR‑устройства:
- поддержка AR/VR‑сценариев;
- интеграция с Play Store — мгновенный доступ к огромной экосистеме приложений;
- готовая база для портирования и адаптации существующих игр/утилит под очки.
- Gemini как мозг
Линейка моделей Gemini обеспечивает:
- мультимодальность (текст, изображение, возможно, звук и видео);
- сильное языковое понимание и генерацию;
- доступ к знаниям и онлайновым сервисам.
С 2023‑го Google активно «спускает» Gemini в железо (Pixel и др.), отрабатывая:
- частичный он‑девайс‑инференс,
- гибридные схемы (часть локально, часть в облаке),
- энергетический и тепловой бюджет.
Для очков это критично: постоянный поток данных с камеры + голосовой ввод + ответ в реальном времени требуют оптимальной балансировки между устройством и облаком.
- Project Astra: демонстрация «агента на голове»
На I/O показали демо Project Astra — агента, который:
- «видит» окружающую сцену,
- помнит объекты и контекст,
- отвечает на вопросы, комментирует, подсказывает.
Это как раз демонстрировалось на прототипе очков: то, что тогда выглядело как футуристический эксперимент, сейчас очевидно выступает UX‑эскизом для будущих потребительских AI‑очков.
В сумме у Google редкое сочетание:
- ОС для XR,
- гигантский стор приложений,
- флагманский LLM‑стек,
- собственные AI‑агенты, заточенные под мультимодальность,
- многолетний опыт и на потребительском, и на корпоративном рынке очков.
С кем будут конкурировать новые AI‑очки
К 2026‑му сформируется довольно плотное поле:
- Meta Ray‑Ban — лёгкие «ассистентские» очки с голосом и камерой, интегрированные в Meta AI и соцсети;
- китайские производители (Xreal и др.) — сильные в оптике и железе, постепенно добавляют локальные модели и ассистентов;
- потенциально Apple со своей AR‑линией, если пойдут в сторону более лёгких очков после Vision Pro;
- стартапы, экспериментирующие с мини‑дисплеями, костной проводимостью звука и локальными LLM.
Но у многих из них есть «дыры»:
- нет своей ОС, приходится опираться на Android/Windows;
- нет собственной сильной модели ИИ (быстрое развитие зависит от внешних API);
- нет большой и стабильной экосистемы приложений.
На этом фоне Google действительно выглядит «игроком без слабых мест»:
- полный вертикальный стек: OS → AI → Store → сервисы (почта, карты, поиск, фото и т.д.);
- опыт длинной истории с Glass и B2B‑очками;
- партнёрства с сильными аппаратными игроками (Samsung, Qualcomm, Foxconn, китайский supply chain).
Чему могут научить ошибки прошлого
Главные вызовы, которые Google придётся решить, учитывая историю:
- Приватность и социальный комфорт
Очки с камерой — всегда потенциальный конфликт:
- потребуется заметная индикация съёмки;
- чёткие софт‑ограничения и настройки;
- работа с регуляторами и общественным восприятием.
- Реальные сценарии, а не «вау‑демо»
Успех Meta Ray‑Ban показывает: людей цепляет простое:
- hands‑free фото/видео,
- быстрый голосовой ассистент в повседневности,
- лёгкий форм‑фактор.
Google придётся найти убедительные, ежедневные кейсы, где связка «Gemini + камера + AR‑оверлей» становится незаменимой, а не просто «прикольной».
- Энергопотребление и тепло
Чем больше вычислений переносится на устройство, тем сложнее:
- удержать комфортную температуру;
- сохранить приемлемое время работы от батареи;
- не превратить очки в тяжёлый и горячий гаджет.
Комбинация Qualcomm‑чипов, оптимизированного Android XR и дообученных версий Gemini под on‑device‑режимы — ключ к тому, чтобы AI‑очки были не только умными, но и носимыми.
В итоге новая волна AI‑очков Google — это уже не эксперимент ради имиджа, а часть большой стратегии «ИИ как повседневный интерфейс».
Если планы по запуску в 2026 Q4 сохранятся, к тому моменту рынок будет не только ждать новый гаджет, но и проверять, сможет ли компания, первой показавшая миру Google Glass, наконец реализовать тот сценарий, который тогда оказался слишком ранним: очки, через которые ты постоянно смотришь — и на мир, и на ИИ, который этот мир понимает вместе с тобой.
Хотите создать уникальный и успешный продукт? СМС – ваш надежный партнер в мире инноваций! Закажи разработки ИИ-решений, LLM-чат-ботов, моделей генерации изображений и автоматизации бизнес-процессов у профессионалов.
ИИ сегодня — ваше конкурентное преимущество завтра!
Тел. +7 (985) 982-70-55
E-mail sms_systems@inbox.ru
Сайт https://www.smssystems.ru/razrabotka-ai/