Голосовые ассистенты и ИИ‑сервисы перестают быть «игрушкой в телефоне» и становятся частью городской среды — от транспорта до магазинов.
Ещё пару лет назад человек, разговаривающий с телефоном в автобусе, выглядел странно. Сегодня в 2026 году голосовые ассистенты вроде Алисы, «Маруси», «Салюта» и Siri встроены в умные колонки, телевизоры, терминалы и даже некоторые городские панели — и никого уже не смущает фраза «Алиса, когда приедет мой автобус?».
Это часть большого сдвига: интерфейсы становятся «невидимыми» — мы взаимодействуем с цифровым миром голосом, жестами и взглядом, а не через кучу иконок на экране.
Город, который отвечает голосом
В умных колонках Яндекса с Алисой и мультимедийных системах с ассистентом «Салют» уже можно узнать расписание транспорта, заказать такси или продукты, проверить штрафы через робота «Макса» с Госуслуг — всё по одной голосовой команде. Не нужно открывать приложение, искать нужный раздел, вводить данные — достаточно сказать «Алиса, когда следующий автобус до центра?».
Московское и питерское метро тестируют голосовые инфостойки: пассажир подходит, спрашивает «Как доехать до Курского вокзала?» — и получает маршрут голосом и на экране. То же самое появляется в торговых центрах: вместо бумажных схем — колонка, которая проведёт до нужного магазина. В аэропортах голосовые терминалы подсказывают, где регистрация, сколько до посадки и где ближайшее кафе.
В перспективе подобные решения переезжают в публичные устройства: инфопанели, терминалы самообслуживания и «умные остановки», где голосовой интерфейс заменяет привычные кнопки и клавиатуры. Банкоматы Сбера уже понимают голосовые команды — можно попросить «переведи 500 рублей маме» без нажатия кнопок. Это особенно удобно, когда руки заняты сумками или ребёнком.
Городские службы тоже подключаются к тренду. Голосовые боты принимают показания счётчиков, записывают на приём в поликлинику, сообщают о плановых отключениях воды. Раньше для этого нужно было ждать на линии — теперь бот отвечает мгновенно и работает круглосуточно.
Даже уличная реклама становится интерактивной: в некоторых городах тестируют билборды с микрофонами, которые отвечают на вопросы прохожих о продукте. Пока это эксперименты, но направление понятно — город учится разговаривать с жителями.
Почему именно 2026 год
Голосовые ассистенты научились лучше понимать естественную речь: Алиса, «Салют» и другие ИИ-помощники уже уверенно распознают разговорный русский, акценты, короткие команды без точной формулировки. Раньше приходилось говорить «Алиса, включи музыку жанра поп» — теперь достаточно «включи что-нибудь весёлое». Ассистент понимает контекст и даже переспрашивает, если что-то неясно.
Развитие встроенного ИИ в смартфонах и колонках (обработка на устройстве, без отправки на сервер) снижает задержки: команды выполняются почти мгновенно, поэтому голос становится быстрее и комфортнее ручного ввода. Если раньше между командой и ответом проходило 2–3 секунды, то теперь — доли секунды. Это делает общение с техникой таким же естественным, как разговор с человеком.
Ещё один фактор — удешевление микрофонных массивов и чипов обработки звука. Если в 2020 году качественное распознавание голоса в шумной среде стоило дорого, то к 2026 году эти компоненты стали массовыми. Поэтому голосовые интерфейсы появляются даже в бюджетных устройствах и городской инфраструктуре — от дешёвых колонок за 2000 рублей до терминалов в МФЦ.
Сыграло роль и развитие нейросетей. Модели типа GPT и их аналоги научились вести осмысленный диалог, а не просто выполнять команды. Ассистент может уточнить детали, предложить альтернативу, пошутить. Это превращает голосовое управление из «пульта с голосом» в настоящего помощника.
Наконец, пандемия 2020–2021 годов приучила людей к бесконтактным интерфейсам. Голос — идеальное решение: не нужно касаться кнопок, которых касались сотни людей до тебя. Эта привычка осталась и после пандемии, ускорив принятие голосовых технологий в публичных местах.
Как это меняет повседневность
Для навигации достаточно сказать в очки или колонку: «Построй маршрут домой» или «Покажи, где ближайшая аптека» — умные очки (XREAL, Rokid Max, Xiaomi Smart Audio Glasses и другие модели) могут вывести направление прямо перед глазами, а колонка проговорит подсказки. Не нужно доставать телефон, разблокировать, открывать карты — всё происходит на ходу.
Пожилым людям проще воспользоваться голосом, чем разбираться с меню смартфона: Алиса или «Салют» помогают узнать погоду, вызвать такси, включить сериалы и управлять умным домом без лишних кнопок. Бабушка может просто сказать «Позвони внуку» — и звонок пойдёт. Для поколения, которое не выросло со смартфонами, голос становится мостом в цифровой мир.
Родители используют голосовые команды, когда руки заняты: готовишь ужин — просишь колонку поставить таймер, читаешь ребёнку — просишь включить колыбельную. Водители диктуют сообщения, не отвлекаясь от дороги. Спортсмены на пробежке переключают треки голосом. Всё это экономит десятки касаний экрана в день и снижает зависимость от смартфона в руках.
Появляется и новый этикет: в кафе или транспорте люди начинают говорить с устройствами тише, как раньше учились говорить по телефону. Производители добавляют режим «шёпот» — ассистент распознаёт тихую речь и отвечает вибрацией или текстом на экран. Некоторые наушники позволяют давать команды субвокально — почти беззвучно, движением губ.
Меняется и потребление контента. Вместо того чтобы листать ленту новостей, можно попросить: «Расскажи главные новости за сегодня» — и получить аудиобрифинг за 3 минуты. Подкасты, аудиокниги, голосовые рассылки растут быстрее текстовых форматов. Уши становятся таким же важным каналом, как глаза.
Обратная сторона - данные и доверие
Чем больше мы говорим с устройствами, тем больше голосовых данных и запросов накапливается у производителей колонок, телевизоров и смартфонов, что поднимает вопросы приватности и защиты этих записей. По сути, компания знает, когда вы просыпаетесь, что заказываете, с кем созваниваетесь, о чём спрашиваете ночью. Это огромный массив личной информации.
В ответ компании усиливают шифрование, вводят режимы «микрофон только по активационному слову» и локальную обработку, чтобы пользователь чувствовал, что управление голосом безопасно. Яндекс и Apple позволяют удалять историю голосовых запросов, Google показывает, какие записи хранятся. Но большинство пользователей не заходят в эти настройки и даже не знают о них.
Остаётся вопрос взлома и утечек. Если злоумышленник получит доступ к вашей колонке, он сможет управлять умным домом, открывать замки, делать покупки. Поэтому производители внедряют голосовую биометрию: колонка узнаёт хозяина по голосу и не выполняет критичные команды от чужих. Но и эту защиту можно обмануть с помощью синтезированного голоса — гонка технологий продолжается.
Есть и социальный аспект: дети, растущие с голосовыми ассистентами, привыкают к мгновенному ответу и командному тону. Они говорят «Алиса, включи мультик» без «пожалуйста» и ждут, что всё произойдёт сразу. Психологи рекомендуют учить ребёнка вежливости даже с роботом — чтобы привычка переносилась на общение с людьми. Некоторые ассистенты уже поощряют вежливые формулировки: «Спасибо, что сказал "пожалуйста"!»
Наконец, возникает вопрос зависимости от технологий. Если человек привыкает, что всё можно узнать голосом, он может разучиться искать информацию самостоятельно, читать инструкции, запоминать номера телефонов. Голосовые ассистенты — это удобство, но важно сохранять баланс и не терять базовые навыки в обмен на комфорт.
Как тебе идея: говорить с колонкой на остановке или в магазине - удобно и логично или пока еще «социально неловко»?