Хотя задача описания всех (динамических) человеческих моделей, полезных для роботов, огромна (если вообще выполнима), утверждаем, что можно разрабатывать и использовать такие модели в ограниченных, но все же интересных и полезных контекстах, таких как совместное манипулирование объектами человек-робот, извлечение и перенос и связанные с этим действия в домашней или рабочей среде.
Когнитивная модель, которую робот создает для агентов, с которыми он взаимодействует, сегодня остается простой и в основном сфокусированной на геометрических характеристиках и возможностях ( кто видит, что? Каковы наши относительные позиции? Что доступно для кого? ). Расширение этих знаний более тонким восприятием (например, эмоциональным состоянием) еще предстоит изучить, помимо простых примеров, таких как обработка явных устных утверждений, таких как «Я устал!» .
Движение и выполнение действия также требуют человеческих моделей, и та, которую мы используем, включает человеческие предпочтения и физические ограничения, которые необходимо учитывать при синтезировании движения робота или создании планов робота. Это включает проксемику (расстояние между человеком и роботом) и связанные с ней проблемы (видимость), а также критерии разборчивости и приемлемости, выраженные в терминах социальных правил, которым должны удовлетворять разработанные планы.
Построили возможности принятия решений нашими роботами вокруг этой идеи явного манипулирования знаниями.
Явные знания в нашей архитектуре . Компоненты, которые мы представили до сих пор, создают архитектуру, ориентированную на знания: знания явно хранятся в одном центральном и согласованном хранилище фактов, доступном для всех модулей. Он опирается на строгий формализм (утверждения OWL), с четко определенным словарем (изложенным в онтологии здравого смысла). Эти первые два пункта приводят к слабосвязанной архитектуре, в которой модули могут быть удалены или заменены другими, если они имеют одинаковую семантику: модули определяются знаниями, которые они производят или потребляют.
Кроме того, мы применяем символический, гибридный (реагирующий и основанный на планировании) управляемый событиями подход к управлению роботом. Управляя событиями на том же уровне, что и мыслитель, мы в полной мере используем возможности вывода Oro для запуска событий, истинные условия которых могут быть (возможно, косвенно) выведены с использованием семантики человеческого уровня.
И, наконец, эта архитектура позволяет объединять различные источники знаний в единую модель, обеспечивая взаимную выгоду для компонентов. Например, модуль обработки диалога может работать без какой-либо оценки ситуации, но его процедуры устранения неоднозначности могут получить от него прозрачную выгоду, когда он доступен (поскольку тогда доступны более богатые символические описания объектов).
Мы хотим подчеркнуть смещение фокуса этого подхода на этапах проектирования и интеграции роботов: компоненты нашего совещательного уровня определяются и связаны вместе знаниями, которые они производят и потребляют. Взаимодействие человека и робота, поскольку оно предполагает операции на уровне человека и в средах со сложной семантикой, действует здесь как мотивирующая сила.
Пределы неоднозначности на семантическом уровне . Взаимодействие с людьми подразумевает способность иметь дело с семантикой: семантикой речевого взаимодействия, семантикой жестов и т. Д. Как следствие, это также подразумевает обработку семантической неоднозначности.
Мы изучили прототипный пример семантической неоднозначности с детской «шпионской игрой»: два игрока сталкиваются друг с другом с набором случайных объектов между ними, один игрок мысленно выбирает один объект, а другой игрок должен угадать объект, задавая закрытые вопросы, такие как Ваш объект маленький или большой? Основываясь на полученных знаниях, робот способен минимизировать количество вопросов, необходимых для поиска объекта.
Однако при игре в эту игру возникает проблема, заключающаяся в том, что у робота нет возможности выбрать, какие знания об объекте актуальны в контексте взаимодействия. Например, база знаний может хранить факты, такие как « ActiveConcept типа OBJ1» (что внутренне означает, что эта концепция упоминалась в обсуждении в последние несколько секунд): эта информация не является релевантным свойством OBJ1 при попытке устранить неоднозначность концепций с людьми. Это различие между внутренним знанием (значимым только для системы) и общим знанием (значение которого понимают все агенты) не было должным образом учтено в нашей архитектуре.
Продолжение следует...