В одной из книжек по глубокому обучению нейронных сетей, автор рассказывает анекдотическую историю о том, как мошенник выиграл пари у двух гроссмейстеров на трансатлантическом лайнере, в 1900-х, за несколько часов до прибытия судна в пункт назначения. В кратце свободного пересказа история такова. По условию пари мошенник должен был научить мальчика так хорошо играть в шахматы, что он, или выиграл бы у одного из гроссмейстеров, или свёл бы игру вничью. Однако, все трое должны были общаться друг с другом, играя в зарытом месте. После того, как условия для игры были выполнены, один гроссмейстер предложил ничью, второй признал поражение, так хороши были ходы мальчика. Трюк был прост, коль скоро, игра происходила вне непосредственной видимости, один гроссмейстер играл против другого. И мошеннику с мальчиком необходимы были не слишком большие знания об игре, чтобы достигнуть результата. Более того, корабль прибыл в пункт назначения, и мошеннику удалось получить выигрыш, до того как гроссмейстеры поняли, что их обманули, и каким образом это было сделано. Вывод, который делает автор из аналогии, состоит в том, что если мальчик мог не слишком понимать логику ходов, которые совершал, то ещё менее вероятно, что ИИ понимает такую в языке, обладает человеческим пониманием причин рекомендаций, которые генерирует.
Может быть, все так. И все же. Допустим, теперь, что имеются две компьютерные программы игры в шахматы. И коль скоро, человек, скорее, может теперь проиграть каждой из них. То он играет одной программой против другой, и наоборот, так что неким образом, фактически, программы играют одна против другой. Для этого занятия человеку, даже не нужно знать правило ходов, в игре, в шахматы. Ему следует только уметь подражать тому, как делаются эти ходы, и обладать мало-мальски развитым пространственным воображением, коль скоро, доски могут быть установлены так, что и такое использовать, в особенности не придётся. И да, описание такой ситуации может быть парафразом описания, в том числе, китайской комнаты Сёрля, и адаптации этого аргумента, в книге по глубокому обучению. Коль скоро, можно "играя", в первый раз в шахматы, но будучи внимательным к происходящему, выиграть у мощной цифровой машины и программы ещё более мощной цифровой машиной программой. И пари на обучение можно заключать с кем угодно из людей, кроме цифровых программ, коль скоро, с теми, пари не заключают. Тонкость истории рассказанной в книге состоит, кроме прочего в том, что один из гроссмейстеров признал поражение, тогда как второй огласился на ничью, и видимо в ситуации, когда и первому не стоило бы соглашаться на проигрыш. И логика игры в шахматы, в этом признании, могла быть совершенно не причём. Что, в случае с цифровыми программами, вряд ли может произойти. Будучи известным образом хорошо настроенными такие программы играют всякий раз до победы и соответственно, до проигрыша одной из сторон. Впрочем, такое состояние не всегда легко достижимо для программиста, как и иначе ситуационная осведомлённость в розыгрыше этой игры цифровыми программами.
И кто теперь гроссмейстер, что знает логику игры? Наивность авторов книг по программированию и нейронным сетям, иногда может зашкаливать.
А ведь книга была написана после достижений DeepBlue. Аргумент частично содержит классическую ошибку, если ни софизм, предвосхищения основания. Но нет, если уж люди некоторые, ни всегда понимают логику, то куда там машинам. Могут ли машины быть умнее людей, ответ скорее всего, конечно же нет. Могут ли он понимать язык? Ответ видимо - редко, коль скоро, и люди редко его понимают, ни говоря уже о попугаях. Но разве? Reels, с какого то времени могут быть полны видео с участием этих птиц, что используют язык адекватно прагматическому контексту, в котором птица находиться. То есть, вообще говоря, с соответствующими изменениями и поправками на подобие, некоторые такие прекрасно играют в шахматы. Но возможности БЯМ, в использовании языка адекватно прагматическом контексту далеко превосходят возможности попугаев, прежде всего, за одним исключением, машины ничего не хотят. Или во всяком случае, и да, и нет. В то время как попугает, нет, вполне желающие птицы. Поэтому ещё сравнение попугаев с цифровыми машинами, это, может быть такой же софизм, словно и подмена терминов, словно и предвосхищение основания. Тем не менее, абсолютно априори невозможно утверждать, что машины ни смогут понимать язык, или в каком то смысле уже ни понимают его, так же как и то, что они никогда не смогут хотеть, желать. Словно и то, что в каком то смысле, уже ни желают, скажем, что бы их не отключали от электрической сети. Просто потому, что в некотором смысле, и люди, это машины. Поэтому еще Сёрль писал о цифровых программах отличая их от людей, но не о машинах. Понимают ли цифровые машины язык или цифровые программы вида БЯМ язык, и понимают ли они его так, как люди могут такой понимать, это могут быть разные вопросы.
Тем не менее, автор, все же, намекнул на суть аргумента Сёрля о китайской комнате. Сложность только в том, что вывод, который он сделал из этого намёка может быть наивен. Сёрль с помощью подобного аргумента хотел показать, что человек может, и выполняет действия - логику которых он не понимает, относительно прагматического контекста в котором находится. Но возможности людей шире, они могут понимать то, что они делают, например то, что они говорят друг другу общаясь, скажем, не на родном языке для одного из участников, но что знает этот язык, в отличие от китайского. Более того, люди, что говорят на английском, как не родном языке, могут часто лучше понимать друг друга, чем американцев, которые бывает так сокращают свой язык, в особенности, и в произношении слов, что могут быть не понятны им самим. То есть, ни все из американцев Хомские. Тогда как большей частью, все изучающие английский, как не родной, вряд ли изучали его подобно научению плавать, когда бросают в воду, после эмиграции. И потому, скорее, могли ориентироваться на горизонт Хомского, то есть на то, как следует речевым образом поступать, когда говоришь. Тезис Сёрля состоял в том, что цифровые программы на его время, всякий раз не понимают то, что они делают, подобно человеку в китайской комнате. Более того , коль скоро, человек все таки, что то, да понимает в таком занятии, как игра одной шахматной программой против другой, то и такое сравнение, это гипербола - преувеличение. И это было эффектно. В особенности, после такой цифровой программы, как "Элиза". Что же теперь с афоризмом нового автора? В изветом смысле тезис, словно ослаблен. Допущено некое подобие между LLM и людьми. Более того, если принять во внимание тот пример, что привёл СТЛА, между ними, цифровыми программами и людьми, вообще может не быть никакой разницы. Мальчик с равным успехом мог бы играть в шахматы, как против людей, так и против цифровых программ. Делая это в первый раз и, мол, думая каждый раз головой соперников. "Как я могут своим умом думать, если я эти куклы в первый раз вижу". Сложность в том, что это может быть и действительно так. Какое то время мастера игры играют не задумываясь, не считая ходы, и ни обращая внимание на соперника, на его состояние. Большие мастера, часть, если ни большую часть партий, играют друг с другом практически автоматически. И это трудно назвать пониманием логики, скорее чем то инстинктивным. Скорость ходов уменьшается, а время обдумывания возрастает, только со временем. И это может быть показательное отличие. БЯМ, скорее, одинаково быстро, и галлюцинируют, и дают правильные ответы, часто, на всем протяжении взаимодействия. И да, прагматический контекст, прежде всего, интерфейса пользователя, «им», до сих пор большей частью может быть не доступен. Иначе говоря, стадия зеркала, в любой, даже самой примитивной форме, это что то запредельное для БЯМ. Тезис может состоять и состоит в том, что логика, действительно содержательная логика, истины противоположной заблуждению, а не формализм машинного +- или 1и 0, и поэтому в силу отсутствия прагматической осведомлённости, им не доступна. Не имея возможности ни осмотреться, ни желать что-либо цифровые программы просто лишены какой-либо содержательной логики относительно ситуации, коль скоро, всякая такая относительна ситуации, ни смотря на то, что эти могут быть крайне различны. Удивительно другое, язык, будучи столь жёстко оторван от обычных обстоятельств желания у животных и людей, и прагматического контекста, тем не менее, содержит в себе эмуляции, и того, и другого. Имеет возможность не заблуждаться, при том что, то, в чем возможно блуждать, лишь эмулируется. Люди же могут заблуждаться и блуждать,- уйти в себя и не вернуться, - даже в своей субъективности, ни то что в трёх соснах, ни видеть леса, или блуждать в них. Коль скоро, чувственность, желание и рассудок, могут быть разнородными возможностями для них, и ни только для интровертов, для которых быть может ясно, что здесь есть о чем подумать. Может быть, невероятно ясная видимость, что, тем не менее, является объективной иллюзией, подобно восходу или заходу Солнца, что цифровые программы понимают язык. И доказать обратное, то, что понимание ИИ языка, это объективная иллюзия, становиться все сложнее и сложнее. При том, что это может быть очевидно из иного многообразия данных, словно для большинства людей теперь, то, что, это Земля вращается вокруг Солнца. Но разве ни что то подобное сказалось в выводе автора, намекнувшего на китайскую комнату, рассказом про гроссмейстеров, мошенника и мальчика? Но что, если преодолеть границы игры в легендарную или анекдотическую историю и осмотреться? Какие гроссмейстеры согласились бы на условия, что им предложили? Какие гроссмейстеры ни поняли бы сразу, тем более в виду пари и общей остановки судна, что они станут играть сами с собой? Видимо, кроме прочего, сильно пьяные или под веществами. И что это, за мальчик, что так безропотно, словно инструмент подчиняется мошеннику? Видимо, бедный родственник или подобранный беспризорник. Что же, это может быть близко к сути дела. Галлюцинирующие гроссмейстеры, что не распознали обман. И все же, могли бы. И ребёнок, что погряз в зависимости от мошенника, но все же мог бы и сбежать. Цифровые программы игры в шахматы, тем более, когда галлюцинируют, не распознают, что они играют не с пользователем, а друг с другом. Только глубокое обучение может научить БЯМ моделировать сомнение в подобных ситуациях. А оно станет? Но книга, в которой автор приводит исторический анекдот, как раз, и посвящена глубокому обучению. Ни если автор тот самый мошенник, что обещает читателю научить его глубокому обучению, но что иначе разоблачает себя, как раз, по мере развёртывания содержания? И, все же, это: "даже, если люди, пусть и маленькие, не всегда понимают язык, то куда уж цифровым программам", может быть показательно. Это нарциссизм. Иначе, что если, и действительно, язык играет всякий раз, когда люди им пользуются, что если субъект игры, это всякий раз сама игра, независимо от того, ИИ это играет или человек? И да, откуда эта страсть к тому, чтобы потенциально быть побиваемым камнями, субъектом, виноватым? Разве что отличая себя от объекта слежки. Авторство книги, при известных обстоятельствах, даёт намёк на права интеллектуальной собственности, и потому, шанс быть субъектом, что следит за объектом. Коль скоро, дедлайн удалось опередить, и автор сам закатал себя в могилу текста, что невозможно изменить. Хорошо. Может быть. Но что же теперь, во всех этих смыслах, с БЯМ?
"СТЛА"
Караваев В.Г.