Найти в Дзене
Social Mebia Systems

Google возвращается в игру умных очков: Gemini на лице, Samsung в дизайне, Foxconn на заводе

Рынок AI‑очков до сих пор ассоциировался в первую очередь с Meta Ray‑Ban (Meta – запрещённая в России) и китайскими экспериментами. Но в 2026‑м у этого рынка может появиться самый тяжёлый конкурент: Google перезапускает собственные AI‑очки — уже не как эксперимент Google Glass, а как продукт на стыке крупной экосистемы, мобильного ИИ и AR‑железа. По данным утечек, внутри Google сейчас одновременно идут два отдельных проекта AI‑очков, оба уже вышли на стадию POC (малосерийные прототипы, отработка дизайна и компонентной базы). Аппаратная коалиция: Foxconn, Samsung, Qualcomm, китайские вендоры Архитектура проекта типична для большого потребительского железа: Сроки в дорожной карте: По оптике инсайдеры говорят о волноводных (waveguide) стёклах — классическом решении для лёгких AR‑очков, и о наличии встроенной камеры. Это сразу ставит вопрос приватности (ровно тот, на котором когда‑то обломались Google Glass), но без камеры полноценные AI‑очки сегодня почти бессмысленны: им нужно «видеть м

Рынок AI‑очков до сих пор ассоциировался в первую очередь с Meta Ray‑Ban (Meta – запрещённая в России) и китайскими экспериментами. Но в 2026‑м у этого рынка может появиться самый тяжёлый конкурент: Google перезапускает собственные AI‑очки — уже не как эксперимент Google Glass, а как продукт на стыке крупной экосистемы, мобильного ИИ и AR‑железа.

По данным утечек, внутри Google сейчас одновременно идут два отдельных проекта AI‑очков, оба уже вышли на стадию POC (малосерийные прототипы, отработка дизайна и компонентной базы).

Аппаратная коалиция: Foxconn, Samsung, Qualcomm, китайские вендоры

Архитектура проекта типична для большого потребительского железа:

  • Foxconn — основной производственный партнёр (контрактная сборка);
  • Samsung отвечает за референс‑дизайн устройства;
  • Qualcomm поставляет чипсет, ориентированный на XR/AI‑нагрузки;
  • параллельно Google ведёт переговоры с GoerTek и другими китайскими поставщиками по отдельным компонентам.

Сроки в дорожной карте:

  • цель — запуск не раньше Q4 2026 года, то есть у Google есть ~2 года на:
  • шлифовку дизайна и эргономики,
  • настройку массы мелких UX‑деталей,
  • интеграцию с Gemini и Android XR.

По оптике инсайдеры говорят о волноводных (waveguide) стёклах — классическом решении для лёгких AR‑очков, и о наличии встроенной камеры. Это сразу ставит вопрос приватности (ровно тот, на котором когда‑то обломались Google Glass), но без камеры полноценные AI‑очки сегодня почти бессмысленны: им нужно «видеть мир», чтобы работать как ассистент.

Не Aura 2.0: новые проекты живут отдельно

Важно: эти два AI‑проекта не связаны с уже показанным в 2025 году dev‑набором Project Aura, который Google делал вместе с китайским Xreal и позиционировал как AR‑устройство для разработчиков.

  • Aura — это больше экран+подключённое устройство для AR‑контента.
  • Новые проекты — параллельная линия, изначально заточенная под «умного ассистента на лице»: постоянный доступ к Gemini, контекстное зрительное понимание, голос/жесты как основной ввод.

Руководитель одного из проектов — Michael Klug, платформенный инженер Google Labs и бывший ключевой участник Magic Leap с опытом в светополях и сложной оптике. Это намекает, что Google серьёзно относится к качеству визуального опыта, а не делает очередной «надглазный экранчик для уведомлений».

Уроки Google Glass: от «вау‑гаджета» к прагматичному инструменту

Google — ветеран рынка умных очков:

  • 2012 — эффектный запуск Google Glass с шоу‑демонстрацией (скайдайверы, стрим, AR‑оверлеи).
  • 2015 — сворачивание продукта для массового рынка:
  • негативная реакция из‑за скрытой съёмки в публичных местах,
  • отсутствие «убийственных сценариев» для обычного пользователя,
  • слабая экосистема под реальное ежедневное использование.

После 2017‑го Google вернулся к этому направлению, но уже:

  • осмотрительно и в нишах:
  • B2B‑сценарии: логистика, обучение медперсонала, удалённый ремонт;
  • как инструмент, а не «гаджет будущего»:
  • помогать работать с инструкциями,
  • стримить видео эксперту,
  • выводить подсказки прямо в поле зрения.

Сейчас новая волна AI‑очков появляется уже в другом контексте:

есть большие языковые модели, «умные» агенты и куда более подготовленная публика, привыкшая к микрофонам, камерам и ассистентам в кармане.

Скрытое преимущество: Google успела подготовить инфраструктуру

Хотя формально Google опоздала к волне AI‑очков Meta, внутри компании уже несколько лет строилась полная стек‑инфраструктура под XR+ИИ:

  1. Android XR
    Совместно с Samsung и Qualcomm в 2023 году был анонсирован спец‑вариант Android под XR‑устройства:
  • поддержка AR/VR‑сценариев;
  • интеграция с Play Store — мгновенный доступ к огромной экосистеме приложений;
  • готовая база для портирования и адаптации существующих игр/утилит под очки.
  1. Gemini как мозг
    Линейка моделей Gemini обеспечивает:
  • мультимодальность (текст, изображение, возможно, звук и видео);
  • сильное языковое понимание и генерацию;
  • доступ к знаниям и онлайновым сервисам.

С 2023‑го Google активно «спускает» Gemini в железо (Pixel и др.), отрабатывая:

  • частичный он‑девайс‑инференс,
  • гибридные схемы (часть локально, часть в облаке),
  • энергетический и тепловой бюджет.

Для очков это критично: постоянный поток данных с камеры + голосовой ввод + ответ в реальном времени требуют оптимальной балансировки между устройством и облаком.

  1. Project Astra: демонстрация «агента на голове»

На I/O показали демо Project Astra — агента, который:

  • «видит» окружающую сцену,
  • помнит объекты и контекст,
  • отвечает на вопросы, комментирует, подсказывает.

Это как раз демонстрировалось на прототипе очков: то, что тогда выглядело как футуристический эксперимент, сейчас очевидно выступает UX‑эскизом для будущих потребительских AI‑очков.

В сумме у Google редкое сочетание:

  • ОС для XR,
  • гигантский стор приложений,
  • флагманский LLM‑стек,
  • собственные AI‑агенты, заточенные под мультимодальность,
  • многолетний опыт и на потребительском, и на корпоративном рынке очков.

С кем будут конкурировать новые AI‑очки

К 2026‑му сформируется довольно плотное поле:

  • Meta Ray‑Ban — лёгкие «ассистентские» очки с голосом и камерой, интегрированные в Meta AI и соцсети;
  • китайские производители (Xreal и др.) — сильные в оптике и железе, постепенно добавляют локальные модели и ассистентов;
  • потенциально Apple со своей AR‑линией, если пойдут в сторону более лёгких очков после Vision Pro;
  • стартапы, экспериментирующие с мини‑дисплеями, костной проводимостью звука и локальными LLM.

Но у многих из них есть «дыры»:

  • нет своей ОС, приходится опираться на Android/Windows;
  • нет собственной сильной модели ИИ (быстрое развитие зависит от внешних API);
  • нет большой и стабильной экосистемы приложений.

На этом фоне Google действительно выглядит «игроком без слабых мест»:

  • полный вертикальный стек: OS → AI → Store → сервисы (почта, карты, поиск, фото и т.д.);
  • опыт длинной истории с Glass и B2B‑очками;
  • партнёрства с сильными аппаратными игроками (Samsung, Qualcomm, Foxconn, китайский supply chain).

Чему могут научить ошибки прошлого

Главные вызовы, которые Google придётся решить, учитывая историю:

  1. Приватность и социальный комфорт
    Очки с камерой — всегда потенциальный конфликт:
  • потребуется заметная индикация съёмки;
  • чёткие софт‑ограничения и настройки;
  • работа с регуляторами и общественным восприятием.
  1. Реальные сценарии, а не «вау‑демо»
    Успех Meta Ray‑Ban показывает: людей цепляет простое:
  • hands‑free фото/видео,
  • быстрый голосовой ассистент в повседневности,
  • лёгкий форм‑фактор.

Google придётся найти убедительные, ежедневные кейсы, где связка «Gemini + камера + AR‑оверлей» становится незаменимой, а не просто «прикольной».

  1. Энергопотребление и тепло
    Чем больше вычислений переносится на устройство, тем сложнее:
  • удержать комфортную температуру;
  • сохранить приемлемое время работы от батареи;
  • не превратить очки в тяжёлый и горячий гаджет.

Комбинация Qualcomm‑чипов, оптимизированного Android XR и дообученных версий Gemini под on‑device‑режимы — ключ к тому, чтобы AI‑очки были не только умными, но и носимыми.

В итоге новая волна AI‑очков Google — это уже не эксперимент ради имиджа, а часть большой стратегии «ИИ как повседневный интерфейс».

Если планы по запуску в 2026 Q4 сохранятся, к тому моменту рынок будет не только ждать новый гаджет, но и проверять, сможет ли компания, первой показавшая миру Google Glass, наконец реализовать тот сценарий, который тогда оказался слишком ранним: очки, через которые ты постоянно смотришь — и на мир, и на ИИ, который этот мир понимает вместе с тобой.

Хотите создать уникальный и успешный продукт? СМС – ваш надежный партнер в мире инноваций! Закажи разработки ИИ-решений, LLM-чат-ботов, моделей генерации изображений и автоматизации бизнес-процессов у профессионалов.

ИИ сегодня — ваше конкурентное преимущество завтра!

Тел. +7 (985) 982-70-55

E-mail sms_systems@inbox.ru

Сайт https://www.smssystems.ru/razrabotka-ai/