Продолжаю разбирать противоречивые мысли Харари. Часть 1 можно прочесть здесь.
Начну с утверждения (с. 253):
"Светские люди ценят ответственность. Они не верят в высшую силу, которая заботится о мире, наказывает злых, воздает справедливым и защищает от голода, эпидемий и войн".
Второе предложение здесь выступает неким раскрытием первого. И вся фраза несет скрытый смысл, что ответственность не совместима с верой в "высшую силу, которая... etc". Это само по себе не верно. Но куда интереснее - откуда в повествовании Харари берется сама ответственность!
О какой ответственности может идти речь, если нет воли? А об отсутствии воли он утверждает не раз.
Взглянем на его противоречивые высказывания по связным между собой вопросам, начав с вопроса о сознании:
1. СОЗНАНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА (ИИ)
"Полностью исключить появление у ИИ собственных чувств нельзя" (с. 98)
VS
"У алгоритмов (ИИ) не возникнет сознания" (с. 97), "современные фантасты путают интеллект с сознанием" (с. 294) (Под "интеллектом" он подразумевает "алгоритм")
Как видим, он не очень определился со своим мнением касаемо ИИ, но нигде не говорит этого явно, а предлагает то одно, то другое.
2. ИЛЛЮЗОРНАЯ ЛИЧНОСТЬ И СВОБОДА ВОЛИ
"Нет никакой аутентичной личности" (с. 298), "фильм "Головоломка" жестоко развенчивает этот миф. Он придерживается самого современного нейробиологического взгляда - нет ни истинного "я", ни свободы выбора" (с. 299), "нет выбора и творчества - они лишь результат обмена биохимическими сигналами" (с. 354), "не я указываю нейронам, когда возбуждаться... мы не контролируем не только свои желания, но и реакцию на эти желания" (с. 355), с.72-74, и т.д.
VS
"Вам придется приложить много усилий для изучения своей операционной системы, чтобы понять, чего вы хотите от жизни" (с. 319), "отбросьте все иллюзии" (с. 320), "это понимание поможет лучше узнать себя" (с. 355), и т.д.
Итак, во множестве фраз он утверждает, что личности нет, это лишь биологический алгоритм, абсолютно детерминированный и не обладающий свободой воли (в этом он следует современным клише, тому же Роберту Сапольски). И в то же время (как собственно и у Сапольски) подспудно получается, что есть в этой личности "кто-то", кто рассуждает о самом себе.
Если быть последовательными, то либо мы перестаем утверждать, что познали как неоспоримую истину, что личность представляет собой лишь строго детерминированный биологический алгоритм, либо признаем и эту интроспекцию о своей алгоритмичности такой же частью детерминированного алгоритма.
Если мы настаиваем на "личность= биохимический алгоритм" (с.83) - призыв "отбросить иллюзии" оказывается курьезом. Так как тот, кто должен это сделать и есть тот самый алгоритм. Отбрасывать иллюзии просто некому, никакого волевого "я", преодолевающего инерцию автоматизма, не существует. Любое "понимание" и "узнавание себя" такой же неконтролируемый биохимический процесс в мозгу.
Призывая к освобождению, к познанию себя, Харари на момент упускает из вида, что теория выхода за пределы своего автоматического бытия - это старая теория религиозного "мифа" ("родиться свыше"/"достичь обожения" в христианстве, "просветления" в индийских учениях, человек-автомат/человек-свободный Гурджиева, Успенского и т.п.), которой нет места в мире "современных данных нейробиологии", с чего он начинал.
Но, что удивляться, если на смену энергичному биологизаторскому редукционизму, в последней главе приходят страховочные истины - "однако, до сих пор мы совершенно не понимаем, как в мозгу возникает сознание. Как получается, что когда миллиарды нейронов посылают электрические сигналы по одной цепи, я чувствую боль, а когда по другой - любовь? Никто этого не знает. Поэтому, даже если сознание действительно рождается в мозгу, изучение сознания и изучение мозга - это разные науки (по крайней мере пока)" (с. 370). А вот со свободой воли уже решил! И снова напоминает - "На самом деле сознание - величайшая загадка Вселенной" (с. 373).
Еще большим откровением оказывает следующее утверждение:
3. ЭТИКА
"Мы не можем доверить компьютеру устанавливать этические стандарты" (с. 87), "Этика алгоритмам недоступна"(с. 83)
Нигде в тексте он не обосновывает эту мысль.
Разбирая старый гипотетический эксперимент "кого предпочтительнее сбить вагонетке", переформулированный на "беспилотный автомобиль" (с.88) он говорит о субъективности человека, из-за его эмоций, пристрастий и эгоизма. Всего того, от чего как раз и застрахован ИИ, обладающий кроме того и в разы превосходящей big data. Если любые ситуации лишь нарративы + инстинкт самосохранения, то алгоритм с более обширной базой данных (всевозможных контекстов и причин) быстрее найдет более прагматичный ответ.
Так в чем же кроется этика, что ее нельзя доверить ИИ? Где ее искать? Если человек такой же алгоритм, если его мысли это просто обмен импульсами между нейронами. Особенно меня порадовало, как Харари вполне точно и с юмором охарактеризовал ситуацию:
"Но ведь Иисус призывал помогать бедным, а не вооружаться до зубов! Эти взгляды могут казаться несовместимыми, но у человека в голове много отделений и "ящичков", и некоторые нейроны просто не общаются друг с другом" (с. 345).
Разве самообучающийся ИИ не быстрее проработает все свои понятийные связи, соединит между собой все эти "ящички", устранив противоречия?
Но мы понимаем, что что-то тут не так. Может быть этика в чувствах?
Но чувства это самое ненадежное, что есть - согласно той же биологизаторской парадигме. Чувства - лишь очередные вбросы биохимических соединений, носящие исключительно стихийный, субъективный характер.
Объективность, со времен греческой философии, рассматривалась как способность освободить мысль от аффектов, от любого лицеприятия, чтобы сделать справедливый вывод. А ИИ и освобождать нечего - он изначально лишен аффектов! К тому же - "если эмоции и желания суть результат действия биохимических алгоритмов, нет никаких причин, по которым компьютеры не могли бы расшифровать их - и гораздо успешнее, чем homo sapiens" (с. 42), "ИИ может не только взламывать людей..." (с. 43)
Харари снова перестраховывается словом "если...", но вряд ли оно остается более значимым для читателя, чем последующие высказывания. ИИ сможет расшифровывать людей и взламывать, но этические решения почему-то при этом должны остаться исключительно в человеческой компетенции.
И он вовсе не заботится об аргументах по этому поводу. Его высказывание про этику, которую следует оставить в руках человека, подается как догма. Вне аргументации. Но то, что было очевидным раньше, теперь как раз и подлежит пересмотру по причине прочих его утверждений. Или хотя бы достойно того, чтобы озвучить это как проблему, требующую решения.
Возможно в следующем его бестселлере он возьмется именно за этот вопрос. Сапольски также давно обещает, что ответит за свои слова и придумает, как можно избежать безответственности при том, что свободы воли нет.
Всем ясно, что концепция отсутствия свободы воли, так надежно занявшая место в прозелитической деятельности биологизаторов атеистов чревата большими проблемами.
Особенно среди биологизаторов обеспокоился об этом пока только философ сознания - Дэниел Деннет.
С минуты 13:03 -мысленный эксперимент Дэниела Деннета, и с 17:25 об уже проведенном психологическом эксперименте.
Единственно, что в вопросе ИИ достоверно, так это следующее предупреждение Харари:
***
Дорогие читатели, не забывайте, что ваши лайки делают информацию доступней. Подписавшись на канал, вы узнаете массу всего достоверного и интересного!
___☝🏻___
Мои статьи на близкую тематику:
Сознание лишь фиктивный интерфейс? Мысли на языке нейробиологии.
«Свободы воли нет?» Разбираем аргументы Сапольски.
«Свободы воли нет?» Разбираем аргументы Сапольски. Часть 2.
#общество и политика #общество #психология #философия #наука #культура