Каждый день появляется новый заголовок: очередное научное светило предупреждает о том, как безрассудно компании создают все более продвинутые формы искусственного интеллекта и какие огромные опасности эта технология представляет для человечества.
Как только ИИ сможет совершенствоваться, он быстро станет намного умнее нас почти во всех аспектах интеллекта, затем в тысячу раз умнее, затем в миллион, затем в миллиард … Что значит быть в миллиард раз умнее человека? Ну, мы не можем знать точно так же, как муравей понятия не имеет, каково это - обладать разумом, подобным Эйнштейновскому. При таком сценарии лучшее, на что мы можем надеяться, - это мягкое пренебрежение нашим присутствием. Мы быстро станем подобны муравьям у его ног. Воображать, что люди могут управлять сверхразумным искусственным интеллектом, немного похоже на представление о том, что муравей может контролировать исход футбольного матча, который разыгрывается вокруг него.
Люди не смогут предвидеть, что планирует сделать гораздо более умное существо
В математике, естественных науках и философии полезно сначала классифицировать проблемы как разрешимые, частично разрешимые, неразрешимые или частично неразрешимые. если будет разработано ИИ, способное улучшать свои собственные способности (известные как рекурсивное самосовершенствование), то человечество фактически не сможет решить проблему контроля.
Ход мыслей таков: для управления сверхразумным ИИ потребуется набор инструментов с определенными возможностями, такими как способность объяснять выбор ИИ, предсказывать, какой выбор он сделает, и проверять эти объяснения и предсказания. Современные системы искусственного интеллекта по своей природе являются “черными ящиками": мы не можем объяснить — и ИИ тоже не может, — почему ИИ принимает то или иное конкретное решение или выводит информацию. Мы также не можем точно и последовательно предсказать, какие конкретные действия предпримет сверхразумная система для достижения своих целей, даже если нам известны конечные цели системы. (Если бы мы могли знать, что сделает сверхразум для достижения своих целей, это потребовало бы, чтобы наш интеллект был наравне с интеллектом искусственного интеллекта.)
Поскольку мы не можем объяснить, как интеллект "черного ящика" принимает свои решения, или предсказать, какими будут эти решения, мы не в состоянии проверить наши собственные выводы о том, что ИИ думает или планирует делать.
Принцип предосторожности - это давний подход к новым технологиям и методам, который требует подтверждения безопасности перед реальным внедрением. Такие компании, как OpenAI, до сих пор предоставляли свои инструменты широкой публике без каких-либо требований по обеспечению их безопасности. Бремя доказывания должно лежать на компаниях, доказывающих, что их продукты с искусственным интеллектом безопасны, а не на общественных защитниках, доказывающих, что те же самые продукты небезопасны.
Рекурсивный самосовершенствующийся ИИ, которым уже занимаются многие компании, является самым опасным видом, потому что он может привести к интеллектуальному взрыву, который некоторые называют “сингулярностью”, точкой во времени, после которой становится невозможно предсказать, что может произойти, потому что ИИ становится богоподобным по своим способностям. Этот момент может наступить в ближайшие год или два, а может быть, и через десятилетие или больше.
Люди не смогут предвидеть, что планирует сделать гораздо более умное существо и как оно будет осуществлять свои планы. Теоретически такие сверхразумные машины смогут использовать всю энергию, доступную на нашей планете, затем в Солнечной системе, а затем, в конечном счете, и во всей галактике, и у нас нет возможности узнать, что эта деятельность будет означать для благополучия или выживания человека.
Можем ли мы верить, что богоподобный ИИ будет учитывать наши интересы? Точно так же можем ли мы верить, что люди, использующие ИИ следующих поколений, будут учитывать интересы человечества? Учитывая, что ставки в разработке сверхразумного искусственного интеллекта невероятно высоки, мы должны получить хороший ответ на эти вопросы — прежде чем мы склонимся над пропастью.
Как только ИИ сможет совершенствоваться, он быстро станет намного умнее нас
Из-за этих экзистенциальных проблем все больше ученых и инженеров сейчас работают над их решением. Например, специалист по информатике-теоретик Скотт Ааронсон недавно сказал, что он работает с OpenAI над разработкой способов нанесения на текст своего рода водяного знака, который создают большие языковые модели компании, такие как GPT-4, чтобы люди могли проверять источник текста. Этого все еще слишком мало и, возможно, слишком поздно, но нас обнадеживает тот факт, что все большее число высокоинтеллектуальных людей обращает свое внимание на эти проблемы.
Скептики часто предполагают, что мы можем просто запрограммировать ИИ на доброжелательность, и когда он станет сверхразумным, ему все равно придется следовать своему программированию. Это игнорирует способность сверхразумного ИИ либо перепрограммировать самого себя, либо убедить людей перепрограммировать его. Точно так же, как люди нашли способы превзойти наше собственное “эволюционное программирование” — например, заботу обо всем человечестве, а не только о нашей семье или племени, — ИИ, весьма вероятно, сможет найти бесчисленные способы преодолеть любые ограничения или ограждения, которые мы пытаемся встроить в него на раннем этапе.
Разве мы не можем просто “отключить” сверхразумный искусственный интеллект, если начнем сомневаться? Нет. Искусственный интеллект будет базироваться в облаке и храниться в нескольких копиях, поэтому будет неясно, что именно отключать. Кроме того, сверхразумный ИИ предвидел бы все возможные способы отключения от сети и находил способы противодействия любой попытке отключить его питание, либо из-за своей миссии по оптимальному достижению своих целей, либо из-за своих собственных целей, которые он развивает с течением времени по мере достижения сверхразума.
Пионер искусственного интеллекта Хьюго де Гарис в своей книге 2005 года "Артилектная война" предупреждал о возможности мировой войны, вытекающей из дебатов о разумности (или ее отсутствии) разработки продвинутого искусственного интеллекта — еще до того, как такой искусственный интеллект появится. Также почти наверняка развитые страны обратятся к оружию с искусственным интеллектом и роботам, управляемым искусственным интеллектом, в будущих войнах. Когда закончится эта новая гонка вооружений? Каждый здравомыслящий человек, конечно, желает, чтобы подобных конфликтов не возникало, но мы вели мировые войны по гораздо, гораздо меньшим поводам.
Более разумный вариант - сделать паузу сейчас, пока мы коллективно обдумываем последствия того, что мы делаем с ИИ. Не стоит торопиться с развитием сверхразума. Ставки так высоки, что нам крайне важно действовать с максимальной осторожностью.
"Прогресс", присоединяйся!