Исследователи из Университета Вашингтона показали прототип ИИ-наушников, способных самостоятельно выделять голос собеседника на фоне общего шума. Новая система использует нейросетевые технологии и может пригодиться не только в шумных помещениях, но и людям с нарушениями слуха, для которых такие условия нередко становятся непреодолимыми. Команда разработчиков сделала ставку на автоматическое распознавание участников беседы. Если раньше пользователю требовалось вручную выбирать нужный источник звука или смотреть на собеседника, чтобы техника сфокусировалась на его голосе, теперь эта функция полностью перешла на плечи алгоритма. Прототип без вмешательства со стороны человека определяет, кто именно говорит, и отсекает лишние реплики, не вписывающиеся в структуру диалога. Работа была представлена 7 ноября в китайском Сучжоу в рамках конференции EMNLP. Код проекта доступен для изучения, и исследователи уверены, что предложенные алгоритмы могут лечь в основу новых слуховых аппаратов, гарнитур
В США представили наушники с ИИ, которые позволяют вести разговор даже в очень шумном баре
11 декабря 202511 дек 2025
3
2 мин