Найти в Дзене
ПомогИИ

Домашнее насилие. Теперь помощь придет быстрее

Испанские учёные научили компьютер слышать боль в голосе человека, и это может спасти тысячи жизней. Представьте, что кто-то из ваших близких попал в беду, но не может сказать об этом прямо. Слова звучат обычно, а внутри - страх и боль. Именно так живут многие жертвы домашнего насилия: они разговаривают с операторами горячих линий, врачами, соседями, но истинное состояние остаётся скрытым. Что если машина сможет услышать то, что человеческое ухо пропускает? Исследователи из мадридского университета Карлоса III, лаборатория UC3M4Safety, разработали систему на основе искусственного интеллекта, которая анализирует голос и определяет признаки психологической травмы от насилия. Никакого волшебства - только математика. Алгоритм изучает три параметра: тон голоса, его ритм и интенсивность. Это примерно как если бы опытный врач, не видя пациента, только по дыханию и темпу речи понимал - человек спокоен или переживает что-то страшное. Разница в том, что врач устаёт и может ошибиться, а система н
Оглавление

Испанские учёные научили компьютер слышать боль в голосе человека, и это может спасти тысячи жизней.

Представьте, что кто-то из ваших близких попал в беду, но не может сказать об этом прямо. Слова звучат обычно, а внутри - страх и боль. Именно так живут многие жертвы домашнего насилия: они разговаривают с операторами горячих линий, врачами, соседями, но истинное состояние остаётся скрытым. Что если машина сможет услышать то, что человеческое ухо пропускает?

Что произошло?

Исследователи из мадридского университета Карлоса III, лаборатория UC3M4Safety, разработали систему на основе искусственного интеллекта, которая анализирует голос и определяет признаки психологической травмы от насилия. Никакого волшебства - только математика. Алгоритм изучает три параметра: тон голоса, его ритм и интенсивность. Это примерно как если бы опытный врач, не видя пациента, только по дыханию и темпу речи понимал - человек спокоен или переживает что-то страшное. Разница в том, что врач устаёт и может ошибиться, а система не устаёт никогда. Исследование опубликовано в журнале Applied Sciences и прошло проверку на более чем 500 записях.

Точность системы составляет 94 процента при распознавании психологической травмы, а количество ошибочных срабатываний снижено на 20 процентов по сравнению с предыдущими разработками. Система обрабатывает голос быстрее ста миллисекунд - это меньше, чем моргание глаза. Она работает даже на обычных устройствах и не теряет точности в шумной обстановке.

Кстати, обнаружили кое-что неожиданное. В ходе экспериментов добровольцам показывали видеозаписи в виртуальной реальности - нейтральные сцены и сцены с насилием. Голоса людей, переживших насилие, реагировали иначе: у них фиксировалось на 15 процентов более высокое отклонение в тоне и интенсивности речи. Это случайное открытие стало ключом ко всей системе. Нейронная сеть, обученная на десяти терабайтах аудиозаписей, научилась считывать эти паттерны так же, как опытный психолог считывает мимику - интуитивно, но при этом точно.

Теперь о том, как это меняет конкретные жизни

Оператор горячей линии помощи пострадавшим от насилия принимает десятки звонков в смену. Он живой человек, он устаёт, он может не уловить тревожный сигнал. Система будет работать параллельно, тихо анализируя голос звонящего и сигнализируя, если обнаружит признаки стресса. Пилотные запуски в таких службах уже показали рост эффективности работы на 30 процентов. Врач на телемедицинской консультации получит дополнительную подсказку, не задавая неловких вопросов. Социальный работник, разговаривая с клиентом по телефону, будет видеть подсказку: здесь стоит задержаться, здесь - спросить ещё раз. Интеграция с медицинскими системами документации сокращает время оформления данных на 18-40 процентов - это значит больше времени на самого человека.

Конечно, стоит сразу проговорить. Система не ставит диагноз и не заменяет живого специалиста. Она - как градусник: показывает температуру, но решение принимает врач. Именно поэтому архитектура разработана так, чтобы сохранять анонимность говорящего - голос анализируется, но личность не раскрывается. Это принципиальное условие, которое закладывалось в систему с самого начала.

Вообще, поражает сама идея: технология, которую обычно используют для умных колонок и голосовых помощников, теперь учится защищать людей. Алгоритм, придуманный для удобства, становится инструментом безопасности. Рынок подобных решений растёт на 18,8 процента ежегодно, и это не просто цифры про деньги - это сигнал о том, что общество готово доверять таким инструментам.

Пока нейросети не научились читать наши мысли и сами ставить себе лайки, мне всё еще нужна ваша поддержка! Подписывайтесь, чтобы не пропускать новые разборы - обещаю и дальше переводить с гиковского на русский.

Если статья зашла, смело жмите лайк и перешлите тому самому другу, который вечно не в теме. Ну и пишите в комменты: куда нас приведут все эти технологии?