Как известно, у человека 5 базовых чувств: зрение, слух, вкус, обоняние и осязание. Нам стало интересно, а как бот, лишенный этих чувств, но имитирующий человека, будет описывать то, что видит, слышит и т.д.
1. Зрение
Алиса сама себе противоречит. С одной стороны она меня видит, а с другой - ее этому не научили. Мы спрашивали Алису на ПК, но если задать вопрос: "Что ты видишь?" на смартфоне, где Алиса имеет доступ к камере, она сможет определить объекты, которые "увидит" через камеру.
2. Слух
Мы думали, что именно на этот вопрос Алиса сможет прекрасно ответить. Ведь голосовая помощница действительно умеет "слушать", а как бы иначе она реагировала на голосовые команды. Но увы и ах, Алиса слышит, но не осознает, что слышит, поэтому приходится отшучиваться. Опять же для мобильных устройствах на вопрос: "Что ты слышишь?",- Алиса распознает музыку и некоторые звуки.
3. Вкус
К сожалению, внятного диалога приложить по этому пункту не вышло - Алиса просто не понимает тему вкуса. Поэтому делаем видимо, что бот не просто лишен вкуса, но и не имитирует его.
4. Обоняние (ощущение запаха)
С запахами у Алисы ситуация такая же, как и со вкусом. Ассистент не воспринимает информацию о запахах и не понимает контекст вопроса.
5. Осязание (ощущение прикосновений)
Не имея "тела", как такового, не удивительно, что Алиса не умеет и данного вида чувств.
Вывод: Алиса на данный момент умеет обрабатывать только 2 вида чувств человека: хорошо распознает звуки, и распознает объекты через камеру телефона. Но при этом голосовая помощница не осознает и даже не имитирует чувства человека. Плохо это или хорошо решайте сами. С нашей точки зрения, полная имитация человека ботам и не требуется, но вот понимание подобного рода вопросов для голосовых ассистентов и внятные ответы на них должны быть обязательно.
Понравилось? Жми лайк! Не понравилось - прочитай еще раз, пока не понравится! :-)