Само существование критерия Тьюринга показывает нам, что разработки в области искусственного интеллекта — это совершенно особая область технологических разработок.
Ни в одной другой инженерной области мы не можем обнаружить тех же самых амбиций. Например, конструкторы летательных аппаратов совершенно не ставят перед собой задачу создать такой летательный аппарат, который обманул бы других птиц. В то время как специалисты, работающие в области искусственного интеллекта стремятся к тому, чтобы создать такую систему, которая, не уступая человеку, была бы обладателем сознания, субъективного опыта, понимающая обращенные к ней высказывания, осознающая происходящее вокруг.
Проблема того, что может понять компьютер, начиная с 1980-х остается одной из ключевых среди проблем, обсуждаемых в философии искусственного интеллекта и она тесно связана с проблемой сознания.
В 1980-х годах американский философ Джон Серль сформулировал базовый для этой проблемы парадокс "китайской комнаты", вокруг которого так или иначе строятся с тех пор дискуссии.
Серль пытался понять: а что представляет собой работа компьютерной программы? И именно для этого он описал следующий мысленно эксперимент. Давайте представим себе, говорит Серль, что у нас есть комната, в которой находится человек, не знающий китайского языка.
И, допустим, что в эту комнату поступают запросы или вопросы из окружающей среды, которые задают находящиеся снаружи комнаты китайцы. Например, они спрашивают: "Какая будет завтра погода?", или "Как быть, если поругался с лучшим другом?", или что-нибудь еще. У вот этого человека, который не понимает китайского языка, есть толстый свод правил, по которым он может, в ответ на любой поступающий запрос, найти в картотеке карточку, соответствующую этому запросу, и выдать ее наружу так, что находящийся снаружи, например, прочтет: "Завтра погода будет не хуже, чем сегодня". Что подумает находящийся снаружи? Он подумает, что комната понимает по-китайски, комната знает китайский язык. Понятное дело: несчастный человек с толстым сводом правил, который мечется по картотеке и, в соответствии с правилами, выискивает карточки, не понимает ничего. Вот именно так, считает Серль, работает компьютерная программа, именно поэтому она может вести себя разумно, но на самом деле разумом, пониманием обладать не будет. Этот мысленный эксперимент оказался очень интересным полем для философских сражений и повлек за собой целое количество новых аргументов.
Например, Нед Блок, другой американский философ, предположил, что на самом деле китайская комната слишком просто устроена. Когда мы говорим, что человеческий мозг дает возможность понимать, мы видим действия миллиардов нейронов, соединенных друг с другом, которые и порождают субъективный опыт сознания и понимания.
Давайте, говорит Нед Блок, возьмем всю китайскую нацию, и пускай каждый китаец изображает один единственный нейрончик, и все они будут соединены друг с другом множеством социальных или несоциальных связей. Интересно, что до Блока подобную идею предложил советский писатель-фантаст Анатолий Днепров в одном из рассказов, в котором можно найти описание подобного же мысленного эксперимента. У нас есть множество китайцев, каждый из них является нейрончиком, они все связаны друг с другом, и они все обрабатывают и передают дальше информацию точно так же, как их передают отдельные нейроны. Вопрос: кто здесь что понимает?
По всей видимости, никто и ничего. Едва ли вся китайская нация или сложная гимнастическая пирамида, в которой участвуют все живущие на земле китайцы, как целое, понимают хоть что-то. Каждый китаец передает свой кусочек информации. Вся китайская нация дает некоторый ответ, пусть даже всему миру. Но где здесь понимание? По всей видимости, его все-таки нет. Хотя другие критики мысленного эксперимента Серля говорят, что совершенно не нужно искать в китайской комнате что-то или кого-то, кому свойственно понимание. На самом деле, системой, которая что-то понимает и которая обладает сознанием, будет сам человек, комната, книга правил в руках у человека, картотека с карточками, посредством которых он коммуницирует с окружающим миром, то есть целостная система.
Ладно, говорит Серль, а давайте мы представим себе, что человек выучил все правила и заучил все карточки. И теперь все у него в голове. И он осуществляет коммуникацию с находящимися снаружи китайцами с той же эффективностью, но имея всю китайскую комнату в голове у себя. Понимает ли он что-нибудь — все еще нет. Но можно найти и более сильные возражения позиции Серля.
Например, американские философы, работающие в области философии и нейронаук, Пол и Патриция Черчленд вообще задаются вопросом: насколько модель китайской комнаты отвечает на тот вопрос, на который призвана ответить?
У нас есть один человек, который работает довольно-таки медленно, с доступной человеку скоростью, осуществляя операции перекодирования информации. Если мы посмотрим на мозг, там огромное количество элементов, которые работают с высокой скоростью. Можем ли мы сопоставить эти ситуации? Патриция Черчленд говорит: а вот давайте представим себе, что Максвелл хочет доказать свою электро-волновую теорию света. Он заходит в темную комнату и начинает размахивать там магнитом, очень-очень-очень быстро. И, соответственно, если свет — это электромагнитные волны, мы должны увидеть свет. Увидим ли мы его? Да никогда в жизни и по одной единственной причине: человек просто машет слишком медленно. Возможно, точно так же и в китайской комнате: элементов слишком мало, они работают слишком медленно, и мы теряем два основных свойства мозга, которые, собственно говоря, порождают субъективный опыт — это связанность элементов и высокая скорость их работы. Поэтому, с точки зрения Черчленд, если аргумент китайской комнаты никогда не может поразить субъективного опыта,то с китайской нацией не все так просто. Если заставить китайцев работать очень быстро, возможно, если исходить из позиции Черчленд, мы и можем получить нечто аналогичное субъективному опыту. Кстати сказать, именно в этой логике работают современные исследователи, которые занимаются разработками искусственного интеллекта на квантовых компьютерах. Им кажется, что если мы разгоним компьютеры на достаточной скорости то мы сможем создать компьютеры, которые имеют субъективный опыт. Наконец, еще одно возражение, которое то и дело встречается в связи с Серлевским экспериментом с китайской комнатой, касается того, а насколько мы вообще готовы признать, что кто-то, отличающийся от человека может иметь сознание? Насколько мы готовы или не готовы приписать сознание животному? Насколько мы готовы или не готовы допустить существование иного разума где-то во Вселенной? Или мы это свойство можем приписывать только человеку? И здесь мы находимся на весах, где, с одной стороны, - наш антропоморфизм, наше стремление приписать внутренние переживания любому техническому устройству, а, с другой стороны, — скептицизм, с которым мы далеко не всегда готовы признать, что обладатель субстрата, отличающегося от человеческого мозга, может иметь человеческое сознание.
То есть, по сути дела, мы видим, что в современной философии искусственного интеллекта тоже существуют две полярные позиции, в явном виде сформулированные Джоном Серлем и имеющие свою собственную аргументацию. С одной стороны, это позиция так называемого слабого искусственного интеллекта, согласно которой машина может совершать разумные действия. Тем самым может удовлетворить критерию Тьюринга, при этом не обладая субъективным опытом, не обладая сознанием, не обладая пониманием того, что она, собственно говоря, делает. С другой стороны, это позиция сильного искусственного интеллекта, согласно которой потенциально, возможно, не сегодня, а после многолетних разработок, будет реально создать такую систему искусственного интеллекта, которая сможет мыслить в декартовском смысле слова. То есть которая будет обладать психикой и будет обладать сознанием, и в этом плане не будет отличаться от человека. Другое дело, что у человека мы всегда обнаруживаем не только сознание, не только познавательные функции, но и стоящую за ними мотивацию и целеполагание.
И до той поры, пока мы не создадим компьютер, у которого будут возникать потребности, заставляющие его ставить те или иные цели, по всей видимости, будут основания для скепсиса по поводу того, насколько работу компьютера мы сможем обозначить термином "психика". Но, если внимательно приглядеться к этому развлечению, мы увидим, что, по сути дела, разработки в области слабого искусственного интеллекта сродни решению легких проблем сознания. И, если приглядеться, можно увидеть, что разработки в логике слабого искусственного интеллекта сродни решению так называемых легких проблем сознания по Дэвиду Чалмерсу в современной нейронауке. Моделирование отдельных психических функций как понимание их конкретных нейробиологических мозговых механизмов. А дискуссии, связанные с сильным искусственным интеллектом, сродни тем обсуждениям, которые возникают вокруг трудной проблемы сознания по Чалмерсу вокруг вопроса о том, каким образом физические и химические процессы в мозге превращаются в субъективный опыт. И, по сути дела, вера в сильный искусственный интеллект или, скорее, осторожная позиция слабого искусственного интеллекта связаны с тем, как именно разработчик решает для себя трудную проблему сознания.