Помните, как в фильме «Бегущий по лезвию» пытаются определить, кто является репликантом, а кто человеком? Или как в фильме «Она» главный герой влюбляется в операционную систему? Раньше это казалось фантастикой, но уже сейчас искусственный интеллект и нейронные сети превращаются в обыденную реальность. И это поднимает вопросы о том, что такое сознание и где граница между человеческим сознанием и компьютером.
В современной философии есть несколько концепций того, как определить сознание. Одна из них опирается на тест Тьюринга, вокруг которого много споров, и даже уже есть опровержения. Давайте разберем их.
Тест Тьюринга
Этот тест является одним из самых авторитетных экспериментов в философии сознания. Его цель – выяснить, способна ли машина мыслить. Тест проходит очень просто: человек через экран и клавиатуру общается с компьютером и человеком. Если человек не в состоянии определить, кто их них кто, то машина прошла тест.
Т.е. задача машины – имитировать общение так, чтобы человек ничего не заподозрил. Это будет говорить о возникновении мыслительной деятельности у машины. Но действительно ли игра в имитацию человеческого диалога свидетельствует о наличии сознания у машины?
Опровержение
Его выдвинул философ сознания Джон Серль. Свой главный критический аргумент он изобразил в эксперименте «Китайская комната». Суть его такова: человека, знающего только английский, поместили в закрытую комнату и дали специальную инструкцию, где соотнесены китайские иероглифы и английский язык. Через одно окно ему поступает письменное высказывание на китайском, и он с помощью инструкции механически подбирает правильный ответ и передает его через другое окно.
Ему могут задать любой вопрос, например, «Что такое Солнце?», и получить адекватный ответ «Солнце – это звезда». Таким образом, люди, находящиеся вне комнаты, делают вывод, что человек внутри комнаты понимает китайский. Но в чем здесь проблема?
Аргумент «Китайской комнаты» направлен против той теории сознания, которая говорит, что можно просто воссоздать функции сознательной деятельности и тем самым создать мыслящую машину. Но человек в «Китайской комнате» знает только последовательность знаков, он их не понимает.
Так и в тесте Тьюринга мы можем думать, что на другой стороне экране сидит человек, хотя машина просто правильно составляла между собой слова, не понимая их смысла.
Синтаксис и семантика
Иными словами, «Китайская комната» показывает, что испытуемый понимает только синтаксис, то есть соединение слов между собой. Но не семантику, то есть смысл и значение китайского языка. Таким образом, делает вывод Серль, успешное прохождение теста Тьюринга говорит только о том, что машина научилась правильно соотносить языковые конструкции, но она их не понимает. Соответственно, и о разумности такой машины говорить нельзя.
Итого
Сознание – одна из самых сложных тем философии, в которой с каждым годом споров и противоречий становится только больше. От однозначного понимания сознания мы всё еще очень далеки, несмотря на достижения философии сознания, нейролингвистики и когнитивной науки.
А как вы думаете – может ли машина обладать сознанием? И может ли искусственный интеллект встать вровень с интеллектом человека? И, скажем, писать книги, создавать искусство?
Скачивайте наше приложение. 7 дней бесплатного доступа к видео и аудиолекциям!