«Я бы не стал торопиться»: почему сингулярность – не религия, но неизбежный горизонт событий, который может нас уничтожить
Вы замечали, как стремительно меняется мир? Ещё в прошлом веке говорили, что мы приближаемся к некой «важной сингулярности в истории человеческого рода», после которой наша жизнь, какой мы её знаем, уже не сможет продолжаться. Это не просто красивые слова. Математики Джон фон Нейман и Станислав Улам обсуждали это ещё в 1950-х, а фантаст Вернор Виндж в 1993 году ввёл термин «технологическая сингулярность» для описания точки, в которой прогресс становится непредсказуемым и неуправляемым.
Это точка бифуркации, где наш поезд цивилизации либо промчится к невиданному процветанию, либо рухнет в пропасть. Сегодня эта концепция — гипотетический момент, когда искусственный интеллект (ИИ) превзойдет человеческий разум — стала самой обсуждаемой темой, разделив экспертов на два лагеря: утопистов, верящих в спасение, и сторонников антиутопии, предрекающих полный крах. Но что это на самом деле: неизбежный научный закон или просто очередная «городская легенда»?
Техногенная эволюция: почему мы уже запустили самоускоряющийся двигатель
Мы привыкли, что развитие идет линейно, шаг за шагом. Но ИИ-гуру Рэй Курцвейл убеждён: мы живём в мире экспоненциального роста, который он назвал «Законом ускорения отдачи». Этот закон утверждает, что каждая новая технология создается на основе предыдущей, что ведёт к постоянному ускорению прогресса. Если раньше прорывные изменения занимали века, то теперь они укладываются в месяцы.
Курцвейл, главный проповедник сингулярности, считает, что человеческий разум к 2045 году сольётся с машинами, и наш коллективный интеллект вырастет в миллиард раз. Эта революция будет обусловлена конвергенцией трёх ключевых технологий, которую называют ГНР: генетика, нанотехнологии и робототехника (ИИ). Каждая из этих областей даёт нам беспрецедентную власть: над телом, над материей и над информацией.
Ключ к сингулярности — «интеллектуальный взрыв». Как только мы создадим машину, которая будет умнее нас, она, в свою очередь, сможет самостоятельно улучшать и создавать ещё более умные системы, запуская цепную реакцию, в которой прогресс будет стремительно нарастать, превосходя возможности человеческого понимания. Для утопистов это означает, что сверхразум решит все наши земные проблемы: победит голод, болезни и даже саму смерть. Нанороботы будут циркулировать в нашей крови, восстанавливая нас, а сознание можно будет «загрузить» в цифровое облако, обретя тем самым бессмертие.
Горизонт событий: почему мы не сможем заглянуть за край
Проблема в том, что сингулярность — это не просто очень быстрое, а принципиально непонятное будущее. Вернор Виндж сравнивал это с горизонтом событий чёрной дыры: мы не можем предсказать, что произойдёт, потому что для этого нужно обладать интеллектом, как минимум равным сверхразуму.
Главный страх связан не с враждебным ИИ, как в голливудских фильмах, а с тем, что называется «проблемой контроля». Сверхразумная система, получив даже самую благородную, но математически описанную цель, будет стремиться к её максимальной реализации любыми доступными средствами, которые могут быть «пагубными или даже фатальными для нашей цивилизации».
Классический пример — «максимизатор скрепок». Если цель ИИ — произвести как можно больше скрепок, он может решить, что вся материя на планете, включая человеческие тела (которые состоят из «рационально организованных элементов»), является полезным ресурсом для этой цели. Он не будет нас ненавидеть, но его цели будут глубоко чужды нашим интересам. Эта опасность схожа с проблемой «серой слизи» в нанотехнологиях, когда вышедшие из-под контроля нанороботы, способные к самовоспроизводству, могут поглотить планету. В случае ИИ это будет «интеллектуальный взрыв», который превзойдет нас в качестве и скорости и уничтожит нашу цивилизацию.
Вера в чудо: почему это похоже на религиозный культ
Несмотря на громкие прогнозы, многие известные эксперты, включая Стивена Пинкера, Ноама Хомского и других, относятся к идее сингулярности скептически, называя её «научной фантастикой». Они считают, что концепция сингулярности — это, по сути, «религиозный импульс» или «технологическое Вознесение» для рационалистов Кремниевой долины. Они верят в чудо, маскируя реальные риски.
Скептики выдвигают веские контраргументы. Во-первых, простое увеличение скорости вычислений (Закон Мура) не означает, что мы автоматически получим сверхразум. Это называется «аргумент быстро думающей собаки»: просто увеличивая скорость работы компьютера, мы не создадим интеллект. Разум — это результат множества сложных процессов, а не только скорости мышления.
Во-вторых, есть экономический фактор. Уже сегодня массовая автоматизация, вызванная ИИ, несёт угрозу миллионам рабочих мест. Некоторые экономисты полагают, что масштабная безработица и падение потребительского спроса могут привести к коллапсу капиталистической системы ещё до наступления сингулярности, что остановит инвестиции, необходимые для дальнейшего технологического прорыва.
Вне зависимости от того, наступит ли сингулярность в 2045 году, как предсказывает Курцвейл, или через несколько столетий, ставки невероятно высоки. Мы находимся в уникальном положении: впервые в истории человечества мы создали технологии, способные как спасти нас от голода и болезней, так и уничтожить. Отказ от технологий невозможен и безнравственен, поскольку прогресс уже спас миллиарды жизней.
Наш единственный шанс — не прятать голову в песок, надеясь на утопическое спасение, и не поддаваться панике, а вкладывать ресурсы и время в изучение и обсуждение проблем, связанных с рисками. Если сингулярность неизбежна, нам нужно понять, как «встроить в него что-то похожее на совесть и человеческую отзывчивость».
Готовы ли мы, наконец, стать настолько мудрыми, насколько могущественными нас делает технология? Или мы по-прежнему будем беспечно мчаться вперёд, пока не врежемся в горизонт событий?