Итак, мы успешно закончили третий модуль, который был посвящён мифам и фактам об Искусственном Интеллекте. И теперь вас на мякине не проведёшь. Я уверен, что вы теперь точно понимаете все тонкости и нюансы, когда читаете или слушаете новости об Искусственном Интеллекте. Ну а сегодня мы открываем новый модуль, который посвящён физиологии и философии сознания. Приготовились? Тогда вперёд.
Искусственный Интеллект будоражил умы ещё в середине XX века, когда термин только начал набирать популярность. Но уже тогда учёные, исследователи, разработчики, журналисты, деятели массовой культуры и просто обыватели пытались понять, можно ли создать машину, которая будет мыслить так же, как и человек.
И вот в качестве попытки ответа на этот вопрос в 1980 году философ Джон Сёрль предложил мысленный эксперимент, который он назвал «Китайская комната». Целью философа было предоставить операционный аргумент против Сильного Искусственного Интеллекта. Давайте посмотрим, удалось ли ему это.
Представим себе запертую комнату, внутри которой сидит человек, не понимающий ни одного китайского иероглифа. Вот сидит этот кто-то в комнате, всё общение которой с внешним миром происходит через узкую прорезь в запертой двери. Оттуда приходят записки, и человек тоже может передавать записки назад. У него много писчей бумаги, у него достаточно воды и еды, чтобы не умереть от голода и жажды. В общем, у него всё есть.
А ещё у человека в комнате есть огромное количество томов, написанных на русском языке, в которых перечислены правила манипуляции иероглифами. Допустим, есть такое правило, как «Если видишь иероглиф ЖЭНЬ, То напиши на первом промежуточном листке иероглиф ВАН». Ну и таких правил мириады.
Зато человек отлично в них ориентируется. Да и у него нет никаких ограничений по времени — когда из прорези в двери влетает записка, он её берёт и может потратить сколько угодно времени, чтобы при помощи правил в книгах сформировать ответную надпись и отправить её назад.
Внимание, вопрос: «Понимает ли этот человек китайский язык?»
И вот в прорезь в двери внезапно падает записка. Человек подходит к ней, поднимает и видит кучу замысловатых символов. Он садится за свой рабочий стол и начинает применять правила. Через какое-то время процесс заканчивается, и у него в руках находится новая полоска бумаги с написанными на ней не менее замысловатыми символами.
Человек просовывает её в щель и в изнеможении падает на кровать — его голова пуста от умственного напряжения. А что произошло снаружи? Снаружи к китайской комнате подошёл китайский человек и опустил в прорезь надпись, которую можно перевести как «Нравится ли Вам сливовое вино?», а через какое-то время он получил ответ: «Да, его очень приятно пить и при этом смотреть на Луну в тихом плеске реки». Китайский человек возьмёт ответ и подумает при помощи своих замысловатых иероглифов: «О, эта китайская комната говорит довольно изысканно».
Что это такое? Как такое возможно? Человек же внутри ни слова не понимает в китайской грамоте? Но почему получилось так, что комната в целом отработала так, как будто бы понимает китайский язык и умеет на нём изысканно изъясняться?
Вы уже поняли, что Китайская комната — это компьютер, книги с правилами — база знаний или что бы то ни было для представления знаний о манипуляции синтаксическими конструкциями естественного языка, человек внутри — процессор. Так вот по аргументации Джона Сёрля китайская комната пройдёт тест Тьюринга, хотя никакого понимания языка внутри неё не возникнет. Борьба и преломление копий на эту тему идёт уже более 35 лет, и философы никак не могут прийти к какому-то решению.
Но давайте рассмотрим этот эксперимент в более расширенном виде. Возьмём ребёнка, вот только что родившегося ребёнка. Он — это и есть китайская комната, и у него в голове кто-то сидит и не понимает ничего. Есть только самые базовые рефлексы, доставшиеся нам от гоминид и ещё более древних предков.
Но как только ребёнок вылез из утробы, он начал получать огромное количество стимулов. Он не сидит запертым в китайской комнате, он постоянно видит, слышит, чувствует запахи, осязает, чувствует боль, температуру, положение своих рук и ног — весь этот огромный массив информации постоянно бомбит того, кто сидит у него в голове.
И к этому ребёнку время от времени обращаются на естественном языке. Соответственно, тот, кто сидит у него в голове будет постепенно связывать ассоциативными связями совокупность значений сигналов от внешних и внутренних рецепторов с теми последовательностями звуков, которые приходят через уши.
Потом начнётся целенаправленное обучение — «Смотри, это цветочек. А это бабочка». И вот уже тот, кто сидит в голове у ребёнка, начинает связывать конкретные слова как с конкретными образами, так и с классами символов. У него формируется понимание, что символ «цветочек» связан с символами «радиально-симметричное», «цветное», «растение» и так далее — с мириадами таких символов и классов. Всё это переплетается в тугой клубок ассоциаций.
А в какой-то момент рождается осознание. Оно появляется намного позже, чем формируются первые навыки речи. Так что до появления осознания ребёнок не понимает, что говорит в ответ на вопросы, хотя отвечает обычно правильно. «Хочешь кушать?» — «Да», и этот ответ создан бессознательно на основании довольно сложной рефлекторной реакции, учитывающей огромное количество факторов, в том числе и сигналы с хеморецепторов и гипоталамусе маленького человека.
Ребёнок не понимает сути сказанного слова, но знает, что если сказать именно его, то далее его покормят, наступит эмоциональная разгрузка того напряжения, которое создаёт избыток грелина в крови. Грелин — это гормон голода. Так вот только после рождения осознания ребёнка можно назвать сознательным, интеллектуальным существом. Мы наблюдаем рождение сознания многажды и многажды, но не можем уловить его сути.
Почему так же не может получиться с рождением осознания у Сильного Искусственного Интеллекта? Давайте вновь определимся. Слабому ИИ никакое осознание не требуется. Аргумент Китайской комнаты бессмысленно рассматривать в применении к Слабому ИИ.
А вот относительно Сильного ИскИна этот аргумент лично мне кажется бессмысленным. Сам эксперимент изначально поставлен не так, как следует — описана работа Слабого ИИ, а вопрос задаётся относительно Сильного. Разве так можно?
Да и пусть искусственная система, называемая «искусственным интеллектом для обработки естественного языка» пройдёт тест Тьюринга, не понимая, что она говорит. Что это меняет? Ни-че-го! Сильный ИскИн, если он появится вот в таких условиях, как я описал, по своей собственной воле будет определять, имеет смысл ему проходить тест Тьюринга или нет. Мы это уже обсуждали.
Всё это я рассказал вам для простой цели. Когда вы слышите что-то про Искусственный Интеллект, всегда задавайте себе вопрос: «Не путают ли они два понятия?». А то получится, как тут — великие умы 35 лет бьются над задачкой, которая яйца выеденного не стоит.
На этой ноте я заканчиваю наше небольшое погружение в философию сознания. Теперь вы знаете, как отвечать на аргументы в духе «Китайской комнаты». Продолжайте постигать глубины Искусственного Интеллекта, оставайтесь с нами и до новых встреч. Пока.