В исследовательском подразделении Apple разработали ИИ-систему, анализирующую не содержание сказанного, а звуковые характеристики речи. Новый алгоритм предназначен для оценки эмоционального состояния человека по особенностям звучания его голоса, что открывает путь к более «живому» и персонализированному взаимодействию с техникой. Для создания модели использовались аудиозаписи с речью людей, страдающих неврологическими нарушениями — например, болезнью Паркинсона и боковым амиотрофическим склерозом. При обучении нейросети применялись семь фонетических признаков, в том числе плавность, громкость, разборчивость и монотонность. Эти параметры традиционно оцениваются при медицинском обследовании, а теперь стали доступны и алгоритмам. Система демонстрирует не просто результат анализа, но поясняет, какие именно характеристики голоса оказались определяющими. Такая прозрачность в работе делает технологию перспективной для телемедицинских сервисов, особенно при наблюдении за динамикой состояния па
Apple представила нейросеть, способную определять эмоции в голосе человека
6 июня 20256 июн 2025
1 мин