Найти тему
ПостНаука

Мысленный эксперимент «Китайская комната»

Photo by James Coleman on Unsplash
Photo by James Coleman on Unsplash

Представим, что человека, не знающего китайский язык, поместили в отдельную комнату, в которой находятся кубики с иероглифами. Человек не знает иероглифов, но у него есть инструкция на английском языке, которая говорит, какой кубик надо брать и какой кубик надо выдавать в ответ на определенные запросы, приходящие извне.

Скажем, вы делаете какой-то запрос, спрашиваете: «Сколько вам лет?» Человек смотрит в инструкцию на английском языке, в этой инструкции говорится, что необходимо взять определенный кубик и положить его в определенное место. Если человек успешно манипулирует этими кубиками, то на выходе мы будем получать ответы на китайском языке, то есть китаец, который будет наблюдать за этим экспериментом, увидит, что ответы получаются в общем осмысленными. Но сам человек в этой комнате никогда не будет знать, что же он сказал, что он сделал: он по-прежнему не будет понимать китайский язык.

Кажется, будто «китайская комната» вместе с этим человеком понимает наши вопросы и дает осмысленные ответы. Но сам человек ничего не понимает.

Аргумент «китайской комнаты» был предложен Джоном Сёрлом в статье «Сознание, мозг и программы» и впоследствии воспроизводился в других его работах. Этот аргумент направлен против такой позиции философии сознания, как функционализм. Уточняя, можно отметить, что аргумент направлен против машинного функционализма, или, как отмечает Сёрл, против сильной версии искусственного интеллекта.

Позиция функционализма, позиция исследователей в области искусственного интеллекта, заключается в том, что наши ментальные состояния рассматриваются как функциональные состояния мозга или организма в целом. В свое время функционализм был очень прогрессивной позицией: до его появления материалистически настроенные философы пытались отождествить ментальные состояния с физическими состояниями мозга. Функционалисты же утверждали, что ментальные состояния необязательно должны являться состояниями мозга. Важно, чтобы они являлись функциональными состояниями.

Это значит, что, в принципе, они могут быть реализованы на любом другом носителе, не обязательно, чтобы у существа был именно человеческий мозг. Существо может быть устроено совсем иным образом, например как компьютер. Оно может быть небиологического происхождения. Главное, чтобы оно функционировало определенным образом, так же, как функционируем мы. Если в этом существе реализуются определенные функциональные состояния, то можно говорить о том, что у него есть ментальные состояния, что в каком-то смысле оно обладает сознанием, психикой. Этот взгляд был очень популярным; в принципе, с определенными модификациями он и сейчас поддерживается многими исследователями. Однако Сёрл критикует эту позицию.

Для того чтобы показать ее неубедительность, он и предлагает аргумент «китайской комнаты».

Против этого аргумента выдвигалось множество различных возражений. Например, многие указывали на то, что в мысленном эксперименте речь идет о функционировании всей системы, всей комнаты, что в каком-то смысле всей комнате мы можем приписать ментальные состояния, но их нельзя приписать конкретному человеку — он всего лишь часть определенной машины. Однако, несмотря на эти возражения, все же следует признать, что аргумент Сёрла внес значительный вклад в опровержение функционализма.

Дмитрий Иванов, кандидат философских наук, научный сотрудник Института философии Российской академии наук

Подробнее о философии сознания читайте в материале философа Кирилла Мартынова.

О самых важных открытиях в сфере искусственного интеллекта рассказывает специалист в области Computer Science Константин Яковлев.