Исследовательская группа Яндекса раскрыла детали собственной нейросетевой технологии, способной точно интерпретировать голосовые команды даже при наличии значительного фонового шума. Разработка уже внедрена в линейку умных устройств компании, а теперь стала доступна и для внешних разработчиков. Научная статья принята к публикации на конференции Interspeech 2025, одном из крупнейших международных форумов по технологиям обработки речи, который пройдёт в этом году в Нидерландах. Среди других участников — Google DeepMind, Microsoft, Google AR и ряд исследовательских лабораторий. Алгоритм, представленный Яндексом, применяется в устройствах с «Алисой» — от умных колонок до ТВ-платформ. Система сохраняет способность распознавать команды даже при сильных акустических помехах — таких как музыка, работающая техника, шум воды, уличные звуки и другие источники фонового аудио. Пользователю не нужно подстраиваться под устройство: речь распознаётся без необходимости перекрикивать окружающие звуки или
Яндекса раскрыл принципы работы нейросети для распознавания голосовых команд на фоне шума
30 июля 202530 июл 2025
1 мин