Найти тему
Про жизнь

Сверхинтеллект. Угрозы и прогнозы

В коллаже использован образ Илона Маска
В коллаже использован образ Илона Маска

Недавно в Южной Корее произошел несчастный случай: робот убил человека. На автоматизированном овощном складе робот принял сотрудника упаковочного цеха за ящик с овощами, и его металлические руки схватили человека и прижали к конвейерной линии с такой силой, что человек получил травмы, не совместимые с жизнью.

К сожалению, это не первый случай, когда робототехника убивает людей. Казалось бы, такое совершенно противоестественно: ведь роботы для того и создаются, чтобы облегчить труд человека, не нанося при этом ему вреда. Еще восемьдесят лет назад писатель-фантаст Айзек Азимов сформулировал три закона робототехники, которые должны были стоять на страже их создателей. В книге «Я - робот» было записано:

«1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому или Второму Закону».

Таким образом законы Айзека Азимова формулировали один из главных экзистенциальных принципов: никакая «железяка» (в том числе робот) не должна при эксплуатации причинять вред человеку. Однако поскольку эти законы были изложены в литературном произведении, а не в юридическом документе, то они никогда ни к чему никого не обязывали.

Забвение этого принципа разработчиками конструкций роботов в ряде случаев приводило к нарушениям правил создания и эксплуатации технических устройств, хотя давно известно, что ни одна техническая система не должна быть допущена к эксплуатации без надежных испытаний на безопасность. И правила техники безопасности (ПТБ) технических устройств (которые, как утверждают практики, «написаны кровью») должны соблюдаться неукоснительно. Существуют, например, ПТБ при работе на циркульных пилах, ПТБ при выполнении электросварочных работ, ПТБ при работах на металлорежущих токарных станках и т.д. Должны существовать и ПТБ при эксплуатации роботов.

Безопасность – прежде всего!

Поэтому когда сегодня говорят о возможной угрозе человечеству со стороны искусственного интеллекта (ИИ), то несомненно, разработчикам ИИ надо помнить не только о ПТБ при создании и эксплуатации систем ИИ, но главным образом о том, что создание любых угрожающих человечеству систем, как технических, так и интеллектуальных, недопустимо не только этически, юридически и технически. Недопустимо – принципиально!

Сильный искусственный интеллект

О том, что искусственный интеллект может уничтожить человечество, сегодня говорить как-то не принято. Выражают беспокойство только специалисты IT, но их пока понимают и слушают очень немногие, поскольку нет убедительных научных доказательств того, что искусственные нейросети способны обрести самосознание и перестроить наш мир под себя. Между тем, беспокойство нарастает, и число людей, поднимающих тревогу, растет.

Некоторые специалисты считают, что мы живем в «поворотный исторический момент», поскольку появление общего или сильного искусственного интеллекта (AGI), в том числе сверхинтеллекта, возможно в ближайшие десятилетия или в конце ХХI века. (Общий или сильный ИИ (AGI) - термин, описывающий потенциальный ИИ, который, по мнению этих ученых, мог бы демонстрировать сверхчеловеческий уровень интеллекта.) Они предполагают, что поскольку ИИ не будет мыслить как человек, а его взгляд на мир и собственные цели развития будет кардинально отличаться от нашего, то он неизбежно приступит к уничтожению рода людского. Нельзя исключить того, что, выполняя какие-то утилитарные задачи, например, производство полупроводников, ИИ не начнет убивать людей, чтобы использовать их в качестве сырья для выпуска своей продукции.

Считается, что как только сверхинтеллект поймет, как выбраться за пределы компьютерной системы, контролирующей и ограничивающей его, он непременно сделает это. А дальше начнется хаос. Проблема в том, что у человечества нет (по крайней мере сегодня) плана, как сохранить управляемость ИИ и не подвергнуться уничтожению со стороны AGI.

Все это внушает страх и нервозность. И вот уже знаменитый американский предприниматель, глава SpaceX, Tesla и Twitter, миллиардер Илон Маск предупреждает:

«На самом деле меня не очень беспокоит, что будет в краткосрочной перспективе. Ограниченный ИИ приведет к неурядицам, исчезновению рабочих мест и совершенствованию оружия, другим подобным вещам, но здесь отсутствует фундаментальный риск для нашего вида, а вот суперинтеллект такой риск представляет, причем, попомните мои слова, ИИ гораздо опаснее боеголовок. Гораздо» [Cliffjord «Elon Mask: Mark My Words, - A.I, Is Far More Dangerous Than Nukes»].

С ним соглашается Стивен Хокинг, всемирно известный физик: «Разработка полноценного искусственного интеллекта может стать смертным приговором человеческому роду» [Хоффман С. Пять сил, изменяющих всё. – СПб: Портал, 2023, с. 393].

Элиезер Юдковский, американский философ и специалист по ИИ, исследователь проблем технологической сингулярности, изучает те конструкции ИИ, которые способны к самопознанию, самомодификации и рекурсивному самоулучшению, а также могут обладать стабильной позитивной структурой мотивации, т.е. так называемым дружественным искусственным интеллектом. Юдковский утверждает, что дружелюбие (желание не причинять вреда людям) должно быть заложено с самого начала, но конструкторы должны понимать, что созданные ими ИИ со временем будут учиться и эволюционировать, вследствие чего их действия могут стать непредсказуемыми. При этом предполагается, что искусственный сверхразум, вероятно, сможет достигать любых поставленных перед ним целей, и потому чрезвычайно важно, чтобы цели, которые ему ставят, и вся его система мотивации были «дружественными к человеку». (Правда, некоторые критики считают, что создание дружественных ИИ маловероятно.)

Однако в начале 2020-х годов Элиезер Юдковский начал публично утверждать о высокой вероятности общечеловеческой катастрофы, вызванной развитием искусственного сверхинтеллекта. В начале 2023 года он стал призывать мировое сообщество объявить всемирный моратории на обучение общих ИИ-моделей умнее GPT-4. Но, поскольку такой мораторий не состоялся, то, считает Юдковский, человечество обречено: искусственный сверхинтеллект его уничтожит [http;//hi-news.ru/eto-interesno/unichtozhit-li-nas-iskusstvennyi-intellekt-i-pochemu-nekotorye-uchenie-schitayut-chto-da.htrnl?ysclid=lq9gwvk.3cm].

Подобные суждения большинство специалистов IT не разделяет: считается, что мотивация для столь агрессивных действий ИИ отсутствует. Кроме того, возможности искусственного сверхинтеллекта едва ли будут расти безгранично, так как знания о процессах, происходящих в природе, позволяют выдвинуть предположение, что наблюдаемая картина ускорения НТП и экспотенциального развития ИИ через некоторое время сменится замедлением и полной остановкой, что позволит человечеству адаптироваться к изменениям.

Как действовать в таких условиях?

Недавно Илон Маск и более 1 000 специалистов по IT, включая нескольких лауреатов Нобелевской премии, подписали открытое письмо с требованием приостановить разработку моделей ИИ-систем, более мощных, чем GPT-4.

Но мировое сообщество пока молчит.

Есть и оптимисты, которые, наоборот, полагают, что ИИ принесет человечеству необыкновенное светлое будущее. Так, известный американский футуролог, изобретатель и технический директор Google Рэй Курцвейл считает, что создание сверхмощных интеллектуальных машин не будет нашествием вражеского марсианского разума: люди создадут эти машины, чтобы сделать умнее самих себя. Именно в этом заключается уникальные способности человеческих существ: люди создадут эти машины, чтобы расширить свои собственные возможности.

Постепенное введение небиологических систем в тела и мозги людей, полагает Рэй Курцвейл, будет еще одним примером непрерывного оборота составляющих их элементов. Оно не повлияет на целостность личности больше, чем естественная замена клеток тела.

Люди привычно станут придерживаться сценариев построения замен. По вопросу о сохранении индивидуальности можно якобы не сомневаться, что индивидуальность (личность) сохранится через непрерывность хранящихся в ней информационных образов. Непрерывность не противоречит непрерывным изменениям, и если сегодня индивид чуть-чуть отличается от того, каким он был вчера, он тем не менее сохраняет свою индивидуальность.

Футуролог Рэй Курцвейл об эволюции Разума:

«Изучение возможности преодоления скорости света … будут важнейшими проблемами человеко-машинной цивилизации в начале следующего столетия.
Космологи обсуждают, каким будет конец света – закончится мир в огне (Большой взрыв в начале – большой треск в конце) или во льду (смерть звезд в результате бесконечного расширения), но они не учитывают силу разума, как будто появление его было лишь побочным эффектом великой небесной механики, управляющей законами Вселенной. Сколько времени нам понадобится, чтобы распространить свой разум в небиологической форме по всей Вселенной? Если нам удастся преодолеть скорость света (безусловно, это очень серьезное «если»), например, путем использования кротовых нор (существование которых вполне совместимо с нашим современным пониманием законов физики), на это уйдет несколько столетий. В противном случае гораздо больше. Но при любом варианте развития событий нужно разбудить Вселенную и разумно распорядиться ее судьбой с помощью нашего человеческого разума в его небиологической форме – это наше предназначение» [Курцвейл Р. Эволюция Разума. – М.: Эксмо, 2018, с. 287].

Биологическая эволюция продолжается, но технологическая эволюция происходит в миллионы раз быстрее.

Самый известный прогноз Рэя Курцвейла такой: в 2045 году должна произойти технологическая сингулярность, момент, после которого спрогнозировать что-то будет крайне трудно или невозможно, так как к тому времени искусственный интеллект станет настолько мощным, что человеческий мозг не сможет его понять. [Курцвейл Р. Эволюция Разума. – М.: Эксмо, 2018, с. 282, 216, 248-249]

Критики Рэя Курцвейла считают, что его прогнозы относительно симбиоза человеческого мозга и ИИ и сингулярности нереальны. Рэй Курцвейл предполагает, что к 2045 году произойдет слияние всех компьютеров, роботов, наномашин и космических аппаратов с миллиардами человеческих мозгов в мировую сеть. Однако простая логика подсказывает, что нормальное большинство человечества на это не пойдет. Вполне достаточно управлять ИИ, в том числе супер-ИИ, и всей компьютерной машинерией, не сливаясь с ними. Одно дело, когда человек использует искусственные нейросети для улучшения здоровья и усиления собственных интеллектуальных возможностей, не соединяясь с ними, другое дело – симбиоз наших биологических мозгов с «железяками». Такое слияние сразу ставит человечество в смертельно опасную зависимость от ИИ. Это делать категорически нельзя!! Степень автономности людей должна быть строжайше обеспечена.

Что касается предполагаемого объединения всего человечества в единую мировую интеллектуальную сеть, то оно едва ли состоится в обозримом будущем еще и из-за отсутствия необходимого «консенсуса» среди «партнеров». Генри Киссинджер, известный американский общественный деятель (и последовательный недруг России), прожив на свете 100 лет, с горечью констатирует: «… «международное сообщество», к которому сегодня взывают, возможно, более настойчиво, чем в любую другую эпоху, не в состоянии согласовать – или хотя бы договориться – об однозначном и непротиворечивом комплексе целей, методов и ограничений.

Мы живем в исторический период, когда налицо упорная, временами почти отчаянная погоня за ускользающей от общего понимания концепцией мирового порядка. Хаос угрожает нам, а вместе с тем формируется беспрецедентная взаимозависимость: распространение оружия массового уничтожения, дезинтеграция былых государств, последствия хищнического отношения к окружающей среде, сохранение, к великому сожалению, практики геноцида и стремитенльное внедрение новых технологий угрожают усугубить привычные конфликты, обострить их до степени, превосходящей человеческие возможности и границы разума … Неужели мы вступаем в новый период, когда будущее станут определять силы, не признающие ни ограничений, ни какого-либо порядка вообще?» [Киссинджер Г. Мировой порядок. – М.: АСТ, 2021, с. 10].

В текущем столетии ситуация вряд ли сильно изменится. Скорее всего, каждая из супердержав будет стремиться создать свой суперинтеллект: США – свой, КНР – свой, Россия – свой. Возможно, появятся и другие крупные игроки, которые будут противостоять друг другу в борьбе за элементарное выживание. Но они не будут стремиться к создании всепланетного супермозга.

Рэй Курцвейл предсказывет, что с наступлением сингулярности ИИ не только возрастет мощь суперинтеллекта и он значительно превзойдет человеческий, но и станет совершенно неуправляемым. То, что суперинтеллект превзойдет человеческий интеллект – не беда: человек давно уже привык управляться с большими мощностями. Плохо будет тогда, когда суперинтеллект, обретя самосознание (если это только произойдет), направит свои действия против Homo sapiens. Чтобы это не произошло, следует на всех этапах проектирования и работы ИИ обеспечивать жесточайший человеческий КОНТРОЛЬ за всеми процессами.

Некоторые футурологи с удовлетворением предсказывают, что «начнется новый этап существования человечества, когда физическая и виртуальная реальности сольются воедино …Впервые в истории человечества мы познаем, каково это – подключиться к сознанию другого человека и делиться пережитым совершенно по-новому. Исчезнут различия между нашим и чужим статусом – ментальным, физическим и цифровым» [Хоффман С. Указ. соч., с. 73]. То есть будто бы при помощи ИИ начнется всеобщее взаимопонимание и дружелюбие. На самом деле это прямо приведет к потере индивидуальности и к созданию так называемого коллективного сознания, т.е. «муравьиного сознания» в худшем варианте. Но хорошо ли это?

Окончание здесь Автор: Пернай Николай Источник: Журнал "Суждения" Книга "Купола Кремля" здесь Книга "Три власти" здесь и здесь