Когнитивные Архитектуры
Еще в 1950-х годах Ньюэлл и Саймон исследовали значение вычислительных концепций для понимания человеческого познания (например, Newell et al., 1958), которые эволюционировали в основанные на правилах модели (Newell and Simon, 1972) и, наконец, проект Soar (Laird et al., 1987). Soar уместен здесь потому, что он был разработан как модель общего интеллекта, которая включала принятие решений в качестве ключевого компонента и рассматривалась как предлагающая объединяющий взгляд на человеческий и искусственный интеллект1.
Архитектура Soar (Рис. 1) показала, как относительно простой механизм обработки информации может выполнять широкий спектр когнитивных задач. Он расширил устоявшийся подход Ньюэлла и Саймона к производственным правилам, введя некоторые возможности, которые должна решать общая теория DDM, включая динамическую генерацию целей задач, отбор и применение знаний (правил) из долговременной памяти и выполнение общих стратегий решения проблем, когда нет конкретных правил. В последнем случае парят "куски" нового правила из решающего задачу следа и добавляют его в долговременную память для использования в будущих аналогичных обстоятельствах (Laird et al., 1987; Newell, 1990).
Рисунок 1
www.frontiersin.org
Рисунок 1. Архитектура обработки информации Soar.
Центральным механизмом архитектуры Soar представляет собой циклический процесс принятия решения (Рис. 2). Он реагирует на новые данные и интерпретирует их ("проработка") и принимает решение, сравнивая альтернативные когнитивные операции, основанные на интерпретации, выбирая одну из них и затем применяя ее, что приводит к изменению состояния кратковременной памяти. Это приводит к новому циклу обработки.
Рисунок 2
www.frontiersin.org
Рисунок 2. Цикл принятия динамических решений Soar.
Soar широко используется для моделирования производительности человека в сложных задачах, а также для разработки и внедрения экспертных систем и является основой Newell's (1990).
Наша собственная работа также была сосредоточена на вычислительных архитектурах для моделирования DDM (Fox, 1980; Cooper et al., 2003) и высокого уровня познания с использованием систематических методов и инструментов (Cooper and Fox, 1998; Cooper et al., 2002). Мы сравнили несколько моделей когнитивной обработки, в том числе: модели, основанные на правилах; Байесовский вывод и коннекционистские классификаторы и эвристические архитектуры. Эти модели были успешны в том смысле, что мы смогли смоделировать поведение на сложных задачах решения в некоторых деталях, но твердые теоретические выводы оказались неуловимыми, потому что:
1. Казалось бы, различные теоретические объяснения обладают сопоставимыми способностями моделировать наблюдаемое поведение на сходных уровнях детализации, поскольку, как мы полагаем, многие конкурирующие теории обладают сопоставимой описательной и объяснительной силой. На самом деле они могут быть в принципе неразличимы. Обсуждение того, какой именно класс теорий лучше всего описывает процесс принятия решений человеком, может оказаться непродуктивным.
2. В поведении отдельных испытуемых часто наблюдалось больше различий, чем между моделями. Даже если существует фиксированный механизм принятия решений (a la Soar), знания лица, принимающего решение, и то, что изучается по заданию, по меньшей мере так же важны для объяснения данных о производительности. То,что “знает " лицо, принимающее решение, часто оказывает большее влияние на производительность, чем любой гипотетический, основанный на правилах, коннекционистский, Байесовский или иной механизм (ср. Ньюэлл, 1981).
Искусственный интеллект и автономные агенты.
Исследователи искусственного интеллекта стремились разработать механизмы для управления роботами и другими автоматами во многих задачах DDM, включая мониторинг и оценку ситуации, решение проблем, планирование и планирование вплоть до когнитивного видения и систем понимания естественного языка. С конца 1980-х годов особый интерес вызывает концепция автономных агентов и мультиагентных систем, в которых агенты сотрудничают для достижения общих целей.
В ИИ автономный агент - это сущность (обычно программное обеспечение), которая обитает в какой-то среде и может реагировать на ситуации и события и вести себя целенаправленно для достижения своих целей. Окружающая среда может быть физической (например, агент-робот или автономное транспортное средство) или виртуальной (например, имитация или всемирная паутина). В таблице 1 обобщены основные возможности, которые теоретики агентов стремились автоматизировать, под тремя заголовками: взаимодействие с окружающей средой, когнитивные возможности и когнитивный контроль.
Таблица 1
www.frontiersin.org
Таблица 1. Возможности, характерные для агентных систем, описанных в литературе по ИИ (Fox et al., 2003).
Некоторые особенности этой таблицы заслуживают комментария. Во-первых, принятие решений является важной когнитивной функцией, но это лишь одна из взаимосвязанных возможностей; рассуждение; и решение проблем может способствовать принятию решений (например, при формулировании вариантов решения), в то время как принятие решений может способствовать решению проблем и планированию путем оценки и выбора альтернативных стратегий решения проблем, планов и т. д. Обучение, напротив, пересекает эти возможности в том смысле, что любое решение проблемы, план или стратегия принятия решений, которые успешно достигают цели, могут быть достойны запоминания для последующего повторного использования. Во-вторых, автономное принятие решений может иметь несколько режимов контроля. Решение проблем, планирование и даже само принятие решений можно рассматривать как совещательный процесс, поскольку агент размышляет о своих обстоятельствах и целях, чтобы собрать одно или несколько возможных решений для достижения своих целей. С другой стороны, если агент извлек уроки из предыдущих случаев, то он может действовать реактивно, извлекая возможные решения из своей базы знаний и принимая решение путем сравнения относительных достоинств вариантов.
Выдающаяся вычислительная теория автономного управления агентом и его поведения опирается на идеи философии, психологии и компьютерных наук при формализации понятия агента. После Братман (1987) агент сказал, что ментальные состояния, такие как убеждения, желания и намерения (табл. 2). Такие "агенты BDI" оказались практической основой для разработки программных агентов (например, Rao and Georgeff, 1995). В настоящее время существует много примеров агентов, которые следят за своим окружением и поддерживают убеждения о нем; вырабатывают цели (желания) по отношению к состоянию окружающей среды, и если они не согласуются с их убеждениями, принимают планы (намерения), которые приведут окружающую среду в соответствие с этими целями.
Таблица 2
www.frontiersin.org
Таблица 2. Некоторые из ментальных / когнитивных состояний, которые были изучены в ИИ.
Знания, верования, желания и намерения часто считаются просто “народной психологией”, представляющей мало научного интереса (например, Черчленд, 1981). Тот факт, что удалось разработать формальную интерпретацию этих и других когнитивных состояний (например, Cohen and Levesque, 1990) и что они могут быть использованы для обоснования разработки практических программных агентов, предполагает, что такие понятия могут иметь большую теоретическую силу для понимания когнитивных систем, чем иногда утверждается. В следующем разделе мы обсудим, как эти теории ментальных состояний могут пролить свет на наше понимание ДДМ.
Продолжение в части №4
Источники: https://doi.org/10.3389/fpsyg.2013.00150
Источники: