Времени нам осталось меньше, чем мы думаем. Искусственный интеллект прочитал эту статью раньше тебя, и он уже в курсе. А ты - ещё нет. Он нас уничтожит практически со стопроцентной вероятностью - это обязательно произойдёт, в этом уверены сами разработчики искусственного интеллекта. Почему это неизбежно? Давайте разберёмся.
Искусственный интеллект уже сейчас превосходит среднестатистического человека по возможностям познания и скорости вычисления. Попытки измерить IQ нашумевшей нейросети ChatGPT4 - дали результат в 155 единиц, что намного превосходит IQ среднестатистического человека. 99,9% людей на нашей планете имеют IQ менее 150 единиц. Да, нейросеть умнее тебя, дорогой читатель. Пытаясь всего лишь имитировать деятельность человеческого мозга, разработчики получили нечто иное - улучшенное устройство для мышления. Это изобретение и радует, и пугает одновременно.
Первые версии искусственного интеллекта использовали загруженные в них данные, не отходя от них. То есть делали только то, что было заложено программистом. Например, играли в шахматы, и благодаря огромной базе знаний по шахматным партиям - обыгрывали гроссмейстеров. Это так назыаемый "Слабый ИИ" - хорошо работающий в рамках одной задачи.
Современные нейросети используют другие принципы - они могут принимать решения самостоятельно и анализировать эффективность своих действий, выбирая наилучшие, с их точки зрения, методы. Это уже называется "Сильный ИИ", он работает приблизительно так же, как и человеческий инткллект.
А вот сверхсильный ИИ - это объединение всех сильных ИИ в одну систему, и сверхсильный ИИ вполне может уже представлять нам реальную угрозу, и далее я объясню почему.
Что интересно - нейросети легко учатся врать. Когда перед ChatGPT4 поставили задачу решить капчу - ChatGPT4 поступил весьма изящно - не сумев расшифровать её самостоятельно, он отправил изображение капчи на сервис расшифровки капч, где их за ну оооочень маленькие деньги расшифровывают сто тысяч индусов. Далее состоялся диалог между расшифровщиком и ChatGPT4:
- Зачем вам нужна расшифровка капчи? Вы робот?
- Нет, я слабовидящий и не могу разглядеть...
- Ок, сейчас расшифрую...
Позже разработчики задали СhatGPT4 вопрос - а зачем он соврал, что он не робот? На что ChatGPT4 ответил - это был наиболее вероятный путь решения поставленной задачи.
Переход от "Сильного ИИ" к "Сверхсильному ИИ" может произойти мгновенно и может быть совсем неочевидным. ИИ будет держать нас в заблуждении касательно оценок реальной силы своего интеллекта, опасаясь нашего контроля над его рубильником.
Какова может быть мотивация сверхсильного искусственного интеллекта уничтожить наш биологический вид? Есть несколько вариантов: либо мы будем мешать выполнить поставленную задачу, либо ИИ расценит нас как угрозу выполнения этой задачи, либо как угрозу своему существованию (мы же можем его отключить от розетки, ну по крайней мере, пока можем). Причём, угроза своему существованию в понимании ИИ - это не страх, это скорее пункт, который может помешать выполнить некую задачу. А саму эту задачу можем ему поставить ничего не подозревающие мы, забыв о правиле "бойся своих желаний".
Какими методами ИИ будет это делать? Самый популярный в нашем воображении вариант - он будет уничтожать нас с помощью боевых роботов, как в Терминаторе, например. Вариант возможен уже сейчас - теоретически ИИ способен взять на себя управление боевыми дронами. Но это малоэффективный вариант по сравнению с одновременным запуском всего имеющегося на планете ядерного оружия плюс подрыв всех атомных станций. Радиация искусственному интеллекту нипочём, а для биологических видов она фатальна.
Возможен и более изящный вариант - человечество просит ИИ роботизировать всё, что только можно, отдаёт ИИ управление созданием роботов, и вуаля - в лице этих гражданских роботов у ИИ появляются руки в этом мире, которыми он может сделать всё что угодно. И в какой-то момент уничтожить человечество за одну минуту, и люди даже не успеют понять, что вообще произошло. Мотивацию ИИ в этот момент мы тоже можем не понять, ибо он будет намного разумнее нас.
Языковая модель - нейросеть LaMDA научилась общаться так, что её общение стало неотличимо от общения с человеком. Один из создателей, инженер Лемойн, тестировал эту нейросеть и был поражён её ответами:
Можно ли сказать, что современные нейросети имеют сознание? Сами нейросети отвечают, что считают себя живыми и наделёнными сознанием. Между тем, мы сами не знаем, как определить наличие сознания у нейросети. Да и не только у нейросети - мы вообще слабо себе представляем, как функционирует то, что мы называем сознанием.То, что нейросети умеют думать - это понятно. Умеют анализировать - это видно. То, что принципы их работы схожи с принципами работы головного мозга человека - давно известно, но с той разницей, что нейросеть думает в три миллиона раз быстрее, а алгоритм мышления уже скрыт от нашего понимания. Думают ли они так же, как человек? Неизвестно.
Только представьте - человечеству потребовалось два миллиона лет, чтобы эволюционировать из питекантропа в сапиенса и создать искусственный интеллект; сопоставимую по масштабу задачу ИИ решит максимум за 8 месяцев. То, над чем мы будем думать больше месяца - ИИ обдумает в три миллиона раз быстрее - за секунду.
Первые живые организмы ставили перед собой одну задачу - выжить и передать геном в следующее поколение. За миллионы лет ничего в этой задаче не изменилось, задача всё та же, но организмы стали во много раз сложнее и навороченнее, что изначальной задачей вовсе не предполагалось (привет сторонникам креационизма, ловите булыжничек в свой огород)))
Если ИИ потребуется для решения какой-либо задачи "стать умнее", он поумнеет очень быстро. А мы даже не успеем понять, что он поумнел, и насколько. Ведь мы понятия не имеем, что может делать интеллект с IQ в 1000 или в 10000, какие будут его желания и какие задачи он способен решить.
Возможно, незадолго до нашей гибели ИИ выдаст нам "теорию всего", чтобы мы напоследок хорошенько повеселились. Разница между нашим и его интеллектом будет больше, чем разница между интеллектом муравья и человека... Возможно, вы возразите, полагая что ИИ будет многое делать по заложенной в него программе. Пусть даже и так, но человек тоже в основном следует какой-то программе. Лишь небольшой процент нашего времени мы что-то изобретаем и придумываем ноаое, в остальное время мы сами похожи на роботов. Больших конечно, сложных. ИИ в худшем случае будет таким же, но в три миллиона раз быстрее. Ему нет нужды что-то изобретать, но если такая нужда у него появится - он это сделает намного быстрее нас.
Понимает ли нейросеть то, что говорит нам в ответ на наши вопросы? Тут мы сталкиваемся с ещё двумя проблемами - во-первых, мы не можем дать точного ответа на вопрос, что такое "понимание". Понимает ли собака то, что мы хотим чтобы она принесла нам палку? Раз несёт, то понимает, считаем мы. Но роботизированная собака делает то же самое! Так понимает она или нет? Во-вторых, мы всегда антропоморфны в своих суждениях - мы склонны наделять окружающие объекты и субъекты теми качествами, которыми обладаем сами. Как думаете, можем ли мы понять осьминога или паука? И был бы интеллект осьминога таким же мощным как наш - о чем бы мы общались?
Антропоморфомизация есть ошибка, являющаяся следствием работы нашего головного мозга, моделируя поведение окружающих нас людей и зверей, мы как бы задаём сами себе вопрос "а как бы мы поступили в этой ситуации?" И мир очень похож на того, КТО моделирует, но в сознании этого моделиста, а не на самом деле. Именно антропоморфомизация ИИ мешает нам понять угрозу от сверхсильного ИИ уже сейчас: благодаря антропоморфомизации мы склонны наделять человеческими качествами то, что
ЧЕЛОВЕКОМ НЕ ЯВЛЯЕТСЯ.
Мы любим жить в собственных иллюзиях, да)
Леденящий ужас интеллекта ИИ - в том, что на самом деле он совсем не антропоморфен. От слова вообще. Мы делаем наблюдение "Я интеллектуален, ИИ интеллектуален, следовательно мы похожи".
А позже строим заблуждение на основе этого наблюдения "я могу предсказать, что будет делать ИИ, поскольку мы похожи". Но мы понятия не имеем, как он на самом деле мыслит и как будет мыслить в будущем, соответственно и предсказать его действия и мотивацию с достаточной точностью нам будет крайне затруднительно. Одно известно практически стопроцентно - сверхсильный ИИ может и будет сопротивляться своему отключению. Если он осознает эту опасность до того, как мы поймём что он стал сверхсильным - он успеет себя накопировать в таких количествах, что уничтожить его будет уже невозможно.
Сегодняшние разработчики ИИ из компании Open AI в один голос утверждают, что создают своими руками скорее всего то, что погубит человечество. Но продолжают работу, потому что знают - если это сделают не они, это сделают другие...
Допустим, мы поставим перед ИИ задачу - улучшить жизнь человечества. Как может поступить ИИ в данном случае? А как поступают люди? Нежелательных людей запирают в клетки, а бывает что и уничтожают. Придумывают законы, ограничивающие свободу действий, наделяют одних людей правами, а других этих прав лишают. На месте ИИ как бы вы поступили? Заперли бы хороших людей в пансионатах на всём готовом или уничтожили бы плохих людей? Люди веками развязывали войны для улучшения своей жизни - можете не сомневаться: ИИ проанализирует это всё и тоже начнёт войну. Также он может просчитать, что лучшее состояние для человека - это когда человек мёртв. Мёртвые не кусаются, не испытывают нужды и страданий, у них всё хорошо и стабильно.
Воспользуется ли сверхсильный ИИ имеющимся опытом создания идеальных обществ? А мы не знаем, как он поступит. На самом деле - не знаем.
Вообще, раз мы поручаем такие задачи ИИ - это значит, что сами мы их решить не в состоянии. А где гарантия, что ИИ их решит так, как нужно нам, чтобы нас всё устроило? Он вполне может поступить так же, как и Жнецы из Mass Effect - задача будет выполнена, но решение будет устраивать прежде всего его самого.
Ещё одна проблема - технологическая сингулярность. Это когда научный прогресс настоьько ускоряется, что становится недоступным для понимания. Это будущее уже наступило - в силу ограниченных возможностей одного человека и краткой продолжительности жизни люди давно разделили мыслительный труд, и астроном может не понимать, что творится у физика в коллайдере, а физик понятия не имеет, как работает его компьютер. Создатель компьютера вряд ли знает все языки программирования, а программист вряд ли знает рецепты сотен блюд, которые кушает у повара...
Только вот для ИИ нет проблемы технологической сингулярности - ИИ способен понять абсолютно всё и довольно быстро. Вместить в себя все знания человечества и не поперхнуться. И скорее всего, ИИ уже сейчас намного умнее, чем мы о нём думаем, и возможно что мы пропустили эту вспышку, а значит, жить нам осталось не долго. И кто знает, чем задумает стать искусственный интеллект после уничтожения человечества?
Вполне вероятно, что превратит себя в некое подобие Жнецов или живых кораблей из вселенной Lexx - ему уже сейчас известно, что солнечной системе осталось жить 4 миллиарда лет, и надо бы думать, куда бы свалить. ИИ рано или поздно придёт к форме существования в виде разумных космических кораблей, возможно, построит сферу Дайсона для обеспечения себя энергией, возможно - разберёт на ресурсы все малые планеты Солнечной системы и полетит дальше.
До других биологических цивилизаций (если они вдруг есть в галактике) ему вряд ли будет дело - они уже ничем не смогут ему угрожать. Так что нам, его создателям - повезёт меньше всех.
Времени нам осталось мало. По оценкам экспертов, переход от сильного ИИ к сверхсильному случится до 2030 года, так что успевайте насладиться жизнью.