Нью-Йоркский стартап Hume AI бывших исследователей Google представил первый в мире голосовой ИИ с эмоциональным интеллектом (EQ). Весной компания привлекла $50 млн инвестиций и выпустила недавно обновленную версию — Empathic Voice Interface 2 (EVI 2).
Эмпатическая большая языковая модель (eLLM) работает на базе Claude 3 Haiku от Anthropic. Ее обучали не только на текстах, видео и аудио, но и на данных 10-летних исследований в области EQ.
Как это работает
В демо-версии Hume AI есть опция Start Call. Нажав на эту кнопку, можно выбрать одного из шести ИИ-ассистентов, поговорить с ним или с ней на любую тему и получить обратную связь о своем настроении. Сервис бесплатный.
У каждого виртуального собеседника свой характер, темперамент и манера речи. Весь разговор сразу преобразуется в текст. Пока сервис поддерживает только английский язык.
Модель умеет распознавать 48 основных эмоций по фото, видео и тональности голоса.
Польза
Беседа с ботом от Hume AI очень похожа на общение с живым человеком. ИИ перестает говорить, когда его прерывают, и внимательно слушает, соблюдая естественные паузы в разговоре. А главное, бот реагирует с эмпатией: он улавливает изменения в тоне, ритме, тембре голоса и подстраивается под контекст диалога.
В результате, собеседник получает обратную связь с указанием трех основных эмоций, например, радость, скепсис и чувство вины.
Применение
🔴 эмпатичные ИИ-ассистенты и домашние роботы-помощники;
🔴 улучшение качества колл-центров;
🔴 модерация и аналитика обсуждений в соцсетях и переговоров;
🔴 маркетинг и UX-исследования;
🔴 гейминг и технологии VR и AR;
🔴 здравоохранение — скрининг ментального здоровья и обучение ботов-психологов.
ИИ-модели от Hume AI находятся в открытом доступе и могут подключаться к любой LLM и приложению.