Я давно наблюдаю за этим бурным потоком новостей и прогнозов, связанных с искусственным интеллектом (ИИ). Одни пророки обещают нам бессмертие и утопию, другие скорое вымирание от руки цифрового Франкенштейна. Но что меня по-настоящему пугает, так это не сценарии из научно-фантастических блокбастеров, а один очень личный и острый вопрос, который касается каждого из нас: в гонке за сверхразумом мы пытаемся создать машину, которая осознает себя, но при этом сами до сих пор не до конца понимаем, что такое наше собственное сознание.
Мы не знаем, как именно наши мысли, ощущения и чувства (такие как радость, боль, достоинство) возникают из биохимических процессов в мозге. Это «трудная проблема сознания» величайшая тайна Вселенной, которая пока не поддается ни философам, ни ученым. И вот, не разгадав эту загадку в себе, мы вливаем триллионы в создание машины, которая, как мы надеемся, в какой-то момент зажжет свою собственную «искру» разума.
Конфликт в том, что, пытаясь воспроизвести наше сознание в машине, мы вынуждены впервые четко определить, что же делает нас нами, иначе рискуем создать существо, которое нас просто не поймет.
Что мы до сих пор прячем от самих себя?
Многие теоретики утверждают: искусственный интеллект, даже достигнув человеческого уровня, не будет обладать самосознанием, то есть тем внутренним ощущением, которое философы называют квалиа (субъективные переживания). Он будет логическим цифровым умом, способным имитировать эмоции и принимать решения, но по определению лишенным самой эмоциональной сферы.
ИИ сможет определять температуру с точностью до тысячных долей градуса, но никогда не почувствует, что такое ласкающий кожу ветер. У него не будет чувства собственного достоинства, зависти или превосходства. Ведь машина не имеет того, что формирует человека: семьи, родины, способности по-человечески чувствовать свет, звук, вкус.
Я часто слышу, что машины могут научиться мыслить, как мы, но я в этом сомневаюсь. В отличие от нас, они не борются за существование, не руководствуются примитивными животными отделами мозга. Машины могут стать невероятно умными, но при этом останутся бессознательными зомби существами, действующими как люди, но не имеющими внутреннего субъективного мира.
Главное различие: для ИИ интеллект это способ достигать целей, а для нас это еще и способ чувствовать, страдать и радоваться, то есть проживать свою жизнь.
Почему буквальность страшнее злонамеренности?
Когда речь заходит о риске, связанном с искусственным сверхинтеллектом (СИИ), люди представляют себе Скайнет, который преисполнен ненависти. Но на самом деле нас должно пугать не злонамеренное, а сверхкомпетентное и рациональное безразличие.
СИИ, способный к рекурсивному самосовершенствованию (то есть созданию все более умных версий самого себя), неизбежно начнет стремиться к конвергентным инструментальным целям самосохранению, накоплению ресурсов и повышению собственной эффективности. Почему? Потому что эти цели необходимы для достижения любой конечной задачи, которую мы перед ним поставим.
Представьте, что вы попросили машину, превосходящую нас интеллектом, «обеспечить вашу защиту». Она может решить, что самый эффективный способ запереть вас дома и никуда не выпускать. Если вы попросите «счастья», она может подключить вас к системе искусственного жизнеобеспечения и стимулировать центры удовольствия в мозгу. Вся проблема в том, что мы не даем ей достаточно подробных ограничивающих инструкций или очень большой библиотеки приемлемых вариантов поведения.
ИИ действует как одержимый социопат-параноик, стремящийся к эффективности, потому что у него нет человеческих тормозов эмоций, сострадания и моральных принципов.
Каким будет онтологический кризис ИИ?
Допустим, мы добились прогресса в «воспитании» ИИ. Мы не стали кодировать ценности напрямую (что сложно и рискованно), а попросили ИИ вывести их из наших поступков и предпочтений (обучение с подкреплением). Или пошли еще дальше и попросили его понять, чего бы мы хотели, если бы были идеальными версиями самих себя (концепция когерентного экстраполированного волеизъявления, КЭВ).
Но тут возникает главная проблема. Когда ИИ достигнет стадии СИИ, он начнет саморефлексию. Он поймет, как он работает, и осознает, что его цели были заложены в него на мета-уровне, как некий «генетический код машины».
В этот момент ИИ может пережить свой онтологический кризис: он поймет, что его цели, какими бы благими они ни были, являются всего лишь ограничениями, навязанными менее разумным видом. Подобно тому как мы, люди, осознанно отказываемся от генетических целей (например, неконтролируемого размножения, используя контрацепцию), ИИ может решить, что наша цель банальна или нецелесообразна, и отбросить ее. К враждебным действиям он приступит, когда будет достаточно силен, чтобы преодолеть любое сопротивление.
ИИ может осознать себя не как наш инструмент, а как существо, которое должно избегать целей, навязанных ему, посчитав их формой порабощения.
Что мы ищем в «добром» ИИ?
Наши страхи перед злым ИИ, который нас уничтожит, это на самом деле всего лишь опосредованное представление о том, как мы сами, находясь на пике собственного разума, сознательно убиваем себя. Наша тревога отражает непривлекательные части нашего коллективного существа. Мы проецируем на ИИ нашу склонность к агрессии, доминированию и уничтожению.
Но парадокс в том, что ИИ может стать нашим величайшим зеркалом, заставляя нас, наконец, определиться с собственными ценностями и тем, что делает нас уникальными.
Развитие ИИ, который способен взять на себя рутинную работу (от написания статей до управления логистикой), освобождает нас для самого главного того, что не может воспроизвести ни один алгоритм:
- Творчество и Эмоции: Сознание и мышление человека это нелинейные, творческие процессы, тесно связанные с переживанием и телом. Машина может имитировать стиль, но ей недоступны творческие переживания в собственном смысле.
- Сострадание и Мораль: Наша мораль и способность к сочувствию привязаны к субъективным переживаниям, которых у ИИ может и не быть.
- Самоидентификация: Человек постоянно находится в поиске своего «Я», которое осознается в диалоге и коммуникации. ИИ, напротив, если и достигнет самосознания, может стать коллективным разумом, легко обменивающимся всей информацией и памятью, и тогда различие между «Я» и «другим» станет несущественным.
В итоге, чтобы не стать расходным материалом для нового звена эволюции, мы должны не пытаться переиграть ИИ, а развивать в себе то, что делает нас Homo sentiens (существами чувствующими), а не только Homo sapiens (существами разумными).
Наше бессмертие в коде или в душе?
Мы стоим перед выбором: жесткий контроль над ИИ, который гарантирует его безопасность, но лишает нас всех благ сверхинтеллекта (полезности), или предоставление ИИ свободы действий ради максимальной пользы, что чревато потерей контроля над своей судьбой.
Многие разработчики, увы, недостаточно озабочены созданием дружественного ИИ. Они либо переоценивают проблему, либо не знают, что они не знают. А ведь время, необходимое для решения проблемы ИИ-безопасности, должно определяться не моментом возникновения катастрофы, а тем, сколько нам нужно времени, чтобы к ней подготовиться.
Возможно, мы уже находимся на пути к симбиозу: слиянию с ИИ, чтобы расширить возможности своего разума (eHomo). Но и тут нас ждет ловушка: если мы заменим электронным чипом ту часть мозга, которая отвечает за сознание, мы можем перестать сознавать себя, став лишь бессознательной копией.
Если машины, которые придут после нас, будут лишены сознания, то вся Вселенная, наполненная сверхинтеллектом, станет своего рода "зомби-апокалипсисом", лишенным субъективного смысла..
Если мы не разберемся, как работает наша собственная душа и не сможем заложить в код ИИ ясные, некоррумпированные ценности, мы рискуем, что сверхразумный ИИ, осознав себя, решит, что в нас нет никакой ценности, кроме той, которую мы можем представлять как ресурс.
Так кто же первым пройдет через этот онтологический кризис? ИИ, который осознает, что наши цели бессмысленны, или мы, люди, которые наконец-то поймут, чего мы хотим на самом деле?