Найти тему

Психофизическая проблема и искусственный интеллект

Новая постановка психофизической проблемы в современной когнитивной науке возникает в связи с разработками в области искусственного интеллекта, или создание компьютерных систем, которые могли бы решать те же задачи, которые решает человек, только быстрее и эффективнее.

Сама по себе идея создать искусственный разум и делегировать ему человеческие задачи появилась довольно давно. На самом деле еще в конце XIX века по ярмаркам ездил механический "турок" (или шахматный автомат фон Кемпелена), который всех обыгрывал в шахматы.

Автомат фон Кемпелена; изображение chess-boom.online
Автомат фон Кемпелена; изображение chess-boom.online

Конечно, это не была механическая система. В автомате обнаружился ящичек, где сидел либо мальчик, либо карлик, который разыгрывал шахматные партии. Но как мы знаем, прошло несколько столетий, и компьютер все-таки обыграл человека в шахматы, не говоря уже о более сложных играх, таких как, например, го или покер. Если посмотреть на современное когнитивное моделирование, на современные разработки, можно увидеть два глобальных подхода.

С одной стороны, это попытки смоделировать человеческую психику, описать ее на языке компьютерных программ или искусственных нейронных сетей, которые устроены совершенно необязательно так же, как мозг, но учатся решать задачи, успешно решаемые человеком.

С другой стороны, мы можем увидеть довольно-таки выраженную тенденцию, связанную с попытками моделирования не психики, а мозга как системы, состоящей из множества нейронов и связей между ними.

В частности, именно таков знаменитый проект Генри Маркрама, который пытается построить кремниевый мозг, создав его из множества отдельных нейронов. К настоящему времени смоделированы уже участки коры головного мозга крыс.

Генри Маркрам, нейрофизиолог, руководитель проекта Blue Brain; изображение techinsider.ru
Генри Маркрам, нейрофизиолог, руководитель проекта Blue Brain; изображение techinsider.ru

По сути дела, это отсылает нас к давнему мысленному эксперименту Зенона Пылышина, который обсуждал, что будет, если заменить в мозге по одному нейрончику? Сможем ли мы создать систему, которая будет наделена сознанием? Почему бы и нет, говорит Генри Маркрам, хотя нынешние разработки все еще от этого далеки. Но когда проблема создания искусственного интеллекта была только поставлена, речь шла лишь о первом подходе — об описании решения задач человеком на языке компьютерных программ.

Первую такую программу, как известно, предложили Аллен Ньюэлл и Герберт Саймон в 1956 году. Звали ее Logic Theorist, доказывала она теоремы из области формальной логики.

Аллен Ньюэлл; изображение hcipioneers.wordpress.com
Аллен Ньюэлл; изображение hcipioneers.wordpress.com

С тех пор разработки в области искусственного интеллекта охватывают все новые и новые сферы задач, доступных человеку, по сути дела с каждым шагом сдвигая границы возможного. Это и система поддержки принятия решения, и система распознавания образов и почерков, и обучающие системы, и автономные агенты — роботы, которые решают задачи в сложной окружающей среде. Но в связи с разработками постоянно возникает вопрос: будет ли когда-нибудь создана система, которая не будет отличаться от человека в том плане, что у нее тоже будет субъективный опыт или сознание. Этот вопрос по-своему в 50-х поставил еще Алан Тьюринг, сформулировав свой знаменитый критерий.

Алан Тьюринг; изображение mel.fm
Алан Тьюринг; изображение mel.fm

Когда мы будем знать, что искусственный интеллект создан? Когда человек, общающийся с компьютером, не сможет этого установить, то есть не сможет отличить собеседника-человека от собеседника-компьютера. Но для этого компьютер должен прежде всего взаимодействовать с человеком на естественном языке.

Первые системы искусственного интеллекта этого не умели. Сейчас мы знаем, что эта задача фактически считается решенной. Существует огромное количество помощников, которые эволюционировали постепенно через разработки справочных систем, поисковых систем, компьютерных игр, которые взаимодействуют с пользователем. И даже компьютерных психотерапевтов, первый из которых появился еще в 60-х годах, когда один из сотрудников Массачусетского технологического института Джозеф Вейценбаум не то в шутку, не то всерьез создал компьютерную программу, которая беседовала с людьми, заходившими в лабораторию, поддерживая разговор примерно так же, как это делает гуманистический психотерапевт: давая человеку обратную связь, что она его понимает, что-то уточняя.

Джозеф Вейценбаум; изображение iguides.ru
Джозеф Вейценбаум; изображение iguides.ru

Это была очень простая программа, которая искала ключевые слова, анализировала синтаксис и даже умела заполнять паузы, если ей было нечего сказать. Поддерживая разговор с пользователями, программа одновременно училась, осваивая новые слова и словосочетания.

Поэтому Вейценбаум назвал своего компьютерного психотерапевта Элизой — так же, как звали героиню пьесы Бернарда Шоу "Пигмалион", которую профессор Хиггинс из девушки кокни превратил, уча ее правильно говорить, в знатную даму. И собственно говоря, в связи с программой Вейценбаума возникли первые вопросы о том, что вот эта программа, которая эффективно поддерживает разговор с другим человеком, на самом деле понимает. Почему этот вопрос возник? Вейценбаум описал очень интересный случай своей собственной секретарши, которая вела этот проект. Секретарша знала о проекте все: как устроена программа, как она работает. Но тем не менее обнаружилось, что когда она, обучая алгоритм, вела беседу с компьютером, ее крайне раздражало, когда в комнату кто-то заглядывал. Она могла даже накричать на своего шефа, если он оказывался в лаборатории в момент этого разговора.

Более того, она считала неэтичным просматривать протоколы работы программы, ее беседы с другими людьми, по сути дела относясь к компьютерной программе, как к реальному собеседнику, который ведет разговор с ней или с любым другим посетителем лаборатории. Каким образом трактовать эту эмоциональную привязанность? Можем ли мы считать, что по сути дела секретарь проекта наделяет компьютер человеческими свойствами, в том числе и сознанием?

Понятное дело, что наделять компьютер мы можем чем угодно, но фактически высказывания этой простенькой компьютерной программы могут быть наделены смыслом только собеседником, а не самой программой. Это легко продемонстрировать, если соединить в таком разговоре две подобного рода программы, чтобы они беседовали друг с другом. Такой эксперимент был проведен, когда заставили говорить друг с другом Элизу и подобную компьютерную программу, которая имитировала параноика-шизофреника и, надо сказать, обманула довольно много бостонских психиатров. Когда эта программа по имени Парри и Элиза были соединены друг с другом, они долго и нудно вели абсолютно бессодержательные разговоры, возвращая друг к другу части собственных фраз. Могло это продолжаться бесконечно, но вопрос заключается в том, что каждый из них понимал? Был ли смысл? Был ли субъективный опыт, стоящий за этими разговорами?

И именно с этим вопросом (что может понять компьютер?) связаны дискуссии вокруг критерия Тьюринга. Классический тест Тьюринга был устроен следующим образом. В нем фигурировал человек-эксперт, который вступал в коммуникацию с человеком и компьютером, находившимися в двух отдельных комнатах, и эксперт не знал, где находится человек, а где компьютер. Это была мысленная ситуация — Тьюринг не проводил такого теста, но описал его в качестве инструмента для философии искусственного интеллекта. И Тьюринг предположил, что как только человек, находящийся за дверьми, не сможет различить, где находится другой человек, а где компьютер, мы будем иметь основания утверждать, что искусственный интеллект создан.

Тест Тьюринга; изображение how2shout.com
Тест Тьюринга; изображение how2shout.com

Но на самом деле уже случай секретарши Вейценбаума рассказывает, что для этого много не нужно. Для того, чтобы наделить программу-болталку чертами человека, достаточно, чтобы она умела давать обратную связь с использованием наших же слов. Поэтому с развитием компьютеров начались уточнения, обсуждения того, как вообще относиться к критерию Тьюринга.

В частности в качестве одной из альтернатив был предложен так называемый обратный тест Тьюринга. Мы будем считать, что искусственный интеллект создан, когда компьютер не сможет различить, беседует ли он с другим компьютером или с человеком. Или может быть наоборот, когда компьютер сможет найти способ осуществить это различение. У обратного критерия Тьюринга нашлось очень интересное практическое приложение — известная нам система типа капча, когда веб-сайт пытается понять, пришел ли к нему человек или робот, используя определенного рода тесты.

Но что за одним, что за другим пониманием критерия Тьюринга стоит исходный антропоморфизм человека, наше стремление найти разумность в любом объекте, который общается с нами на нашем языке. По всей видимости, жертвой именно этого антропоморфизма пала в свое время секретарша Вейценбаума. Действительно, представим, что мы оказываемся на необитаемом острове, находим там надпись на песке. И каков наш первый вывод? По всей видимости, на острове есть люди. Есть кто-то, кто мыслит и умеет оставлять письменный след, письменное свидетельство своего существования. И в этом плане мы можем наделить разумом в общем-то любое техническое устройство. Против этого в свое время предостерегал один из основателей области искусственного интеллекта Джон Маккарти, который говорил, что при таком подходе мы вполне можем приписать термостату высказывания вроде того, что "мне кажется, что здесь стало жарковато".

Джон Маккарти; изображение highload.today
Джон Маккарти; изображение highload.today

И в этой логике мы будем готовы наделить пониманием, а по сути дела, и сознанием любое искусственное устройство. Более того, что мы понимаем под разумностью? Вот например, если компьютерная программа обижается на нас за то, что мы плохо с ней поступили, хотя на самом деле мы поступили с ней совершенно нормально. Она ведет себя неразумно, но мы будем склонны считать ее что-то чувствующей и что-то понимающей. Примерно как в рассказе Амброза Бирса столетней давности "Моксон и его господин", где шахматный автомат обиделся на своего создателя за проигрыш в шахматы и попросту его убил.

А если компьютер перемножает два шестизначных числа, очень быстро дает ответ, он ведет себя совершенно разумно. Но мы не будем считать, что это компьютер, то есть по сути дела мы отталкиваемся от того, насколько компьютер похож на нас, а не от того, насколько он на самом деле ведет себя разумно. По всей видимости, именно здесь и скрывается ключик к успеху первой компьютерной программы, первой системы искусственного интеллекта, которая взяла штурмом тест Тьюринга. До 1914 года ни одна из компьютерных программ не могла обмануть предупрежденного эксперта, что она не является человеком. А в 2014 программа, которая имитировала подростка-эмигранта из Одессы по имени Юджин Гусман все-таки преодолела критерии Тьюринга, за пять минут обманув 33 процента экспертов.

Почему так произошло?

По всей видимости, это была программа, которая обладала вполне определенным набором личностных черт. Это был 13-летний мальчик, речевые неловкости которого можно было списать на то, что он был сыном эмигранта. У него был папа гинеколог, питомец морская свинка — в общем-то вполне достаточно для того, чтобы счесть его человеком. И здесь, собственно говоря, основной вопрос в том, что сами люди усматривают за критериям Тьюринга — компьютер, который способен совершать разумные действия (действия, которые внешне воспринимаются как разумные), или компьютер, который на самом деле что-то понимает? И развернутый философский анализ этой ситуации дал в свое время философ Джон Серль.

Продолжение следует...