Искусственный интеллект активно развивается в России и мире – в том числе эмоциональный. Им интересуются крупные компании и амбициозные стартапы, которые внедряют новые разработки в ритейл, маркетинг, образование, банковскую сферу, рекрутинг. По данным Mordor Intelligence, рынок распознавания эмоций оценивался в 12 млрд долларов в 2018 году и вырастет до 92 млрд долларов к 2024 году.
Rusbase разобрался, чем полезен эмоциональный ИИ для бизнеса.
Что такое эмоциональный ИИ
Эмоциональный искусственный интеллект (Emotion AI) – это ИИ, который позволяет компьютеру распознавать и интерпретировать человеческие эмоции и реагировать на них. Камера, микрофон или нательный датчик считывают состояние человека, а нейросеть обрабатывает данные, чтобы определить эмоцию.
Есть два основных способа анализа эмоций:
1. Контактный. На человека надевают прибор, который считывает его пульс, электрические импульсы тела и другие физиологические показатели. Такие технологии позволяют определить не только эмоции, но и уровень стресса или вероятность эпилептического припадка.
2. Бесконтактный. Эмоции анализируют на основе видео- и аудиозаписей. Компьютер изучает мимику, жесты, движение глаз, голос и речь.
Чтобы обучить нейросеть, дата сайентисты собирают выборку данных и вручную размечают изменение эмоционального состояния человека. Программа изучает шаблоны и понимает, какие признаки к какой эмоции относятся.
Нейросеть может обучаться на разных данных. Одни компании и лаборатории используют видеозаписи, другие изучают голос, а некоторые извлекают пользу сразу из нескольких источников. Но чем разнообразнее данные, тем точнее результат.
Рассмотрим два основных источника:
- Фото и стоп-кадры из видео.
Сначала изображения обрабатываются, чтобы ИИ было удобнее с ними работать. Черты лица – брови, глаза, губы и так далее – размечаются точками. Нейросеть определяет положение точек, сопоставляет их с признаками эмоций из шаблона и делает вывод о том, какая эмоция отражена – злость, страх, удивление, грусть, радость или спокойствие.
Есть и другой подход. На лице сразу отмечают маркеры эмоций – например, улыбку или нахмуренные брови. Тогда нейросеть ищет маркеры на изображении, анализирует их комбинации и определяет состояние человека.
«Для обучения используется набор заранее размеченных изображений лиц, каждому из которых поставлена в соответствие изображенная на нем эмоция. В процессе обучения нейронная сеть самостоятельно выясняет, что определяет эмоцию человека, в результате получается готовый алгоритм. Также существуют подходы, при которых на лице изначально определяются Action Unit’ы (опущенные брови, приподнятый подбородок, сморщенный нос и т.д.), а дальше по их комбинации определяется конечная эмоция», – Даниил Киреев, ведущий исследователь компании-разработчика продуктов по распознаванию лиц VisionLabs.
Изучение маркеров эмоций началось еще в XX веке. Правда, тогда их рассматривали отдельно от нейросетей. Ученые Пол Экман и Уоллес Фризен разработали систему кодирования лицевых движений (Facial Action Coding System или FACS) в 1978 году. Она разбивает выражение лица на отдельные мышечные движения, или двигательные единицы (Action Units). Исследователь изучает двигательные единицы и сопоставляет их с эмоцией.
- Голос и речь.
Нейросеть выделяет из акустического сигнала множество параметров голоса – например, тон и ритмичность. Она изучает их изменение во времени и определяет состояние говорящего.
Иногда для обучения используют спектрограмму – изображение, которое показывает мощность и частоту сигнала во времени. Кроме того, для более точного результата ИИ анализирует лексику.
«Умение обращать внимание на чувства и эмоции другого человека называется эмпатией. Чем точнее вам удается интерпретировать эмоции, намерения и мотивацию, тем выше уровень вашего эмоционального интеллекта. Теперь представьте, если ваш плейлист будет формироваться на основании эмоций, распознанных при разблокировке Face ID. А Siri позволит выговориться ей после тяжелого дня и даст пару советов, а потом порекомендует фильм, чтобы отвлечься», – Олег Кивокурцев, сооснователь Promobot.
Источник: RB.RU