Найти тему
Наука интересная

Новая модель того, как люди локализуют звуки

Одной из постоянных головоломок потери слуха является снижение способности человека определять, откуда исходит звук, что является ключевым фактором выживания, позволяющим животным - от ящериц до людей - точно определять местонахождение опасности, жертвы и членов группы. В наше время поиск утерянного мобильного телефона с помощью приложения "Найти мое устройство", просто чтобы найти его под диванной подушкой, полагается на мельчайшие различия в звонке, который доходит до ушей.

В отличие от других сенсорных восприятий, таких как ощущение попадания капель дождя на кожу или умение отличать высокие ноты от низких, направление звуков должно быть рассчитано; мозг оценивает их путем обработки разницы во времени прибытия через два уха, так называемой межауральной разности времени (ITD). Среди биомедицинских инженеров давно сложилось общее мнение, что люди локализуют звуки по схеме, схожей с пространственной картой или компасом, с нейронами, выровненными слева направо, которые срабатывают по отдельности при воздействии звука под определенным углом - скажем, на 30 градусов влево от центра головы.

Но в исследовании, опубликованном в этом месяце в журнале eLife, Антье Илефельд, директор лаборатории нейрохирургии речи и слуха NJIT, предлагает другую модель, основанную на более динамичном нейронном коде. По ее словам, открытие дает новую надежду на то, что однажды инженеры смогут разработать слуховые аппараты, которые, как известно, плохо восстанавливают направление звука, чтобы устранить этот дефицит.

"Если в мозгу есть статическая карта, которая разлагается и не может быть исправлена, это представляет собой серьезное препятствие. Это значит, что люди, скорее всего, не смогут "переучиться" локализовать звуки хорошо. Но если эта способность восприятия основана на динамическом нейронном коде, это дает нам больше надежды на переподготовку мозга людей", - отмечает Илефельд. "Мы программировали слуховые аппараты и кохлеарные импланты не только для компенсации потери слуха, но и исходя из того, насколько хорошо человек может адаптироваться к использованию подсказок от своих устройств. Это особенно важно в ситуациях с фоновым звуком, когда ни один слуховой аппарат в настоящее время не может восстановить способность различать целевой звук. Мы знаем, что предоставление сигналов для восстановления направления звука действительно поможет."

К такому выводу ее привело путешествие в научную детективную работу, начавшееся с беседы с Робертом Шапли, выдающимся нейрофизиологом Нью-Йоркского университета, который отметил особенность восприятия глубины бинокля человека - способность определять, насколько далеко находится объект зрения, - которая также зависит от сравнения данных, поступающих на оба глаза. Шапли отметил, что эти оценки расстояния систематически менее точны для низкоконтрастных стимулов (изображения, которые труднее отличить от окружающих), чем для высококонтрастных.

Илефельд и Шапли задались вопросом, применим ли один и тот же нейронный принцип к локализации звука: является ли он менее точным для более мягких звуков, чем для более громких. Но это отходит от преобладающей теории пространственных карт, известной как модель Джеффресса, которая утверждает, что звуки всех объемов обрабатываются - и, следовательно, воспринимаются - одинаково. Физиологи, утверждающие, что млекопитающие полагаются на более динамичную нейронную модель, давно не согласны с ней. Они считают, что нейроны млекопитающих имеют тенденцию стрелять с разной скоростью в зависимости от направленного сигнала, и что мозг затем сравнивает эти скорости по множеству нейронов для динамического построения карты звуковой среды.

"Проблема в доказательстве или опровержении этих теорий заключается в том, мы не можем смотреть непосредственно на нейронный код этих восприятий, потому что соответствующие нейроны находятся в стволе мозга человека, поэтому не можем получить их изображения с высоким разрешением", - говорит она. "Но у нас было предчувствие, что обе модели будут давать разные надежные прогнозы местоположения при очень низком уровне громкости."

Они искали доказательства в литературе и нашли только две работы, которые были записаны из нервной ткани при таких низких звуках. Одно исследование проводилось в отношении амбарных сов - вида, как полагают, использует модель Джеффресса, основанную на записях высокого разрешения в мозговой ткани птиц, а другое - на млекопитающем - макаке-резус, который, как считается, использует динамическое кодирование скорости. Затем они тщательно реконструировали свойства нейронов, записанные в этих старых исследованиях, и использовали их реконструкцию для оценки направления звука как в зависимости от ITD, так и громкости.

Мы ожидали, что для данных по сове коровника не имеет значения, насколько громким должен быть источник - прогнозируемое направление звука должно быть действительно точным, независимо от громкости звука - и мы смогли это подтвердить". Однако то, что мы нашли для обезьян, это то, что направление звука зависит как от ITD, так и от громкости", - сказала она. "Затем мы искали в человеческой литературе результаты исследований воспринимаемой звуковой направленности как функции ITD, которая, как полагали, не зависит от объема, но, как это ни удивительно, не нашла доказательств, подтверждающих эту давнюю веру".

Затем она и ее аспирант Нима Аламацаз зачислили добровольцев в кампус NJIT, чтобы проверить их гипотезу, используя звуки для проверки того, как громкость влияет на то, где, по мнению людей, появляется звук.

"Мы построили очень тихий, звукоизолированный зал со специализированным калиброванным оборудованием, что позволило нам с высокой точностью представлять звуки нашим волонтерам и записывать их там, где они воспринимали источник звука. И, конечно же, люди неправильно идентифицировали более мягкие звуки", - отмечает Аламацаз.

"На сегодняшний день мы не можем точно описать вычисления локализации звука в мозгу", - добавляет Иглефельд. "Тем не менее, текущие результаты не согласуются с представлением, что человеческий мозг полагается на вычисления, подобные Джеффрессу. Вместо этого, похоже, мы полагаемся на чуть менее точный механизм.

В более широком плане, говорят исследователи, их исследования указывают на прямые параллели в слуховом и визуальном восприятии, раньше не учитывались и указывают на то, что кодирование на основе скорости является основной операцией при вычислении пространственных измерений с двух сенсорных входов.

"Поскольку наша работа открывает принципы, объединяющие оба чувства, мы ожидаем, что заинтересованная аудитория будет включать ученых-когнитологов, физиологов и специалистов по компьютерному моделированию слуха и зрения", - говорит Илефельд.

"Захватывающе сравнивать, как мозг использует информацию, достигающую наших глаз и ушей, чтобы понять окружающий нас мир и обнаружить, что два, казалось бы, не связанных между собой восприятия - зрение и слух - могут на самом деле быть очень похожими".

Наука
7 млн интересуются