Найти в Дзене
planetnews

Создание машин, которые лучше понимают человеческие цели.

В классическом эксперименте психологов Феликса Варнекена и Майкла Томаселло над человеческим социальным интеллектом 18-месячный малыш наблюдает за мужчиной, несущим стопку книг к закрытому шкафу. Когда мужчина подходит к шкафу, он неуклюже стучит книгами о дверцу шкафа, и издает озадаченный звук. Затем малыш предлагает помощь. Выявив цель мужчины , малыш подходит к шкафу и открывает двери,

В классическом эксперименте психологов Феликса Варнекена и Майкла Томаселло над человеческим социальным интеллектом 18-месячный малыш наблюдает за мужчиной, несущим стопку книг к закрытому шкафу. Когда мужчина подходит к шкафу, он неуклюже стучит книгами о дверцу шкафа, и издает озадаченный звук. Затем малыш предлагает помощь. Выявив цель мужчины , малыш подходит к шкафу и открывает двери, позволяя мужчине поместить внутрь свои книги. Но как малыш с таким ограниченным жизненным опытом может сделать такой вывод?

Недавно компьютерные ученые перенаправили этот вопрос на компьютеры: как машины могут делать то же самое?

Фото: Массачусетский технологический институт.
Фото: Массачусетский технологический институт.

Критически важным компонентом для формирования такого понимания является то, что делает нас наиболее человечными: наши ошибки. Подобно тому, как малыш может сделать вывод о цели человека только на основании неудачи, машинам необходимо учитывать наши ошибочные действия и планы.

В стремлении запечатлеть этот социальный интеллект в машинах исследователи из Лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института (CSAIL) и Департамента мозговых и когнитивных наук создали алгоритм, способный определять цели и планы, даже если эти планы могут потерпеть неудачу. Этот тип исследования в конечном итоге может быть использован для улучшения ряда вспомогательных технологий, роботов, а также цифровых помощников, таких как Siri и Alexa.

«Эта способность учитывать ошибки может иметь решающее значение для создания машин, которые надежно делают выводы и действуют в наших интересах», - говорит Тан Чжи-Сюань, доктор философии. «В противном случае системы искусственного интеллекта могут ошибочно заключить, что, поскольку мы не смогли достичь наших целей, эти цели были нежелательными. В идеале алгоритмы будущего будут распознавать наши ошибки и помогать нам избегать их».

Для создания своей модели команда использовала Gen, новую платформу программирования ИИ, недавно разработанную в Массачусетском технологическом институте, для объединения символического планирования ИИ с байесовским выводом. Байесовский вывод широко используется для оценки финансовых рисков, диагностического тестирования и прогнозирования выборов.

Модель команды работала в 20-150 раз быстрее, чем существующий базовый метод, называемый байесовским обратным обучением с подкреплением (BIRL). Новая модель была точной в 75% случаев при постановке целей.

«ИИ находится в процессе отказа от «стандартной модели», в которой машине ставится фиксированная, известная цель, - говорит Стюарт Рассел, профессор инженерии Смит-Заде из Калифорнийского университета в Беркли. «Вместо этого машина понимает, что она не знает, чего мы хотим, а это означает, что исследование того, как вывести цели и предпочтения на основе человеческого поведения, становится центральной темой ИИ. Эта цель серьезно изучается; в частности, это шаг к моделированию - и, следовательно, инверсии - фактического процесса, с помощью которого люди формируют поведение, исходя из целей и предпочтений». Команду особенно вдохновил общий способ человеческого планирования, который в значительной степени неоптимален: не планировать все заранее, а формировать только частичные планы. Хотя это может привести к ошибкам из-за недостаточного обдумывания, это снижает когнитивную нагрузку.

Алгоритм вывода команды, называемый «Последовательный поиск обратного плана (SIPS)» сокращает маловероятные планы на раннем этапе. Обнаружив потенциальные сбои заранее, команда надеется, что эта модель может быть использована машинами для более эффективного оказания помощи. Работа концептуально построена на более ранних когнитивных моделях группы Тененбаума, показывая, насколько простые выводы, которые делают дети и даже 10-месячные младенцы о целях других, можно смоделировать количественно как форму обратного байесовского планирования.

«Хотя эта работа представляет собой лишь небольшой начальный шаг, я надеюсь, что это исследование заложит некоторые философские и концептуальные основы, необходимые для создания машин, которые действительно понимают человеческие цели, планы и ценности», - говорит Сюань. «Этот базовый подход моделирования людей как несовершенных мыслителей кажется очень многообещающим».

Доставка новостей прямиком в Telegram