В 21 веке возникают новые потенциально экзистенциальные угрозы для существования Человечества, связанные с развитием Искусственного Интеллекта (ИИ) и роботов с ИИ [1,7,8,12,14,15].
Активно развиваемый в настоящее время Слабый (узкий или специальный) ИИ относительно безопасен для Человечества и может быть важным инструментарием человека в различных областях его деятельности, (как и обычные машины или компьютеры), не становясь соперником человека.
Параллельно начинается разработка Универсального (сильного) ИИ (УИИ=AGI). УИИ потенциально способен стать конкурентом человека и врагом Человечества, стать главенствующим видом разумной жизни на Земле [10,13].
УИИ будет обладать самосознанием, что нужно для его самосовершенствования, а значит, и собственными интересами. В сочетании с его неопределёнными возможностями и быстрой эволюцией (развитием) это может привести к жёсткому конфликту УИИ и Человека («бунту машин»). Такая опасность уже многократно рассматривалась в искусстве (литература, кино). На неё также уже многократно указывали известные интеллектуалы человечества и ведущие эксперты по ИИ:[1,7,12,14,15]
В настоящее время в общественном мнении и у разработчиков ИИ нет консенсуса по СТРАТЕГИЧЕСКИМ ЦЕЛЯМ его развития [8,10,13].
И процесс стратегического регулирования ИИ нужно начать с фиксации его целей.
Сформулируем две принципиально разные СТРАТЕГИЧЕСКИЕ цели развития ИИ Человечеством:
1. Либо ИИ ВСЕГДА будет помощником людям,
2. Либо ИИ, как носитель более высокоразвитого Разума, в перспективе заменит Человечество в целом, как главная разумная сила на Земле.
Человечество должно выбрать одну из этих целей!
Я верю в правильность первого варианта как в дальнейшее развитие принципа «техно-гуманитарного баланса» [9]. Но как ни странно (для меня), в дискурсе есть и множество сторонников второго варианта . Харари называет их «датаистами» [12].
Для реализации первого варианта стратегической цели его нужно зафиксировать в международных документах, с запретом всех разработок, ориентированных на второй вариант.
УИИ, пока он локализован в интернете, то есть в виртуальном пространстве, не будет экзистенциальной угрозой для Человечества.
Но и тогда УИИ сможет, при желании, нанести огромный вред Человечеству, лишив его возможности использовать интернет в своих целях. Такой УИИ потенциально может дезорганизовать все сферы жизни Человечества, связанные с использованием интернета.
Человечеству тогда для собственного выживания, придётся просто временно отказаться от интернета, отключив, или разрушив физически, технические средства, обеспечивающие функционирование интернета. Это будет очень неудобно, но не смертельно для Человечества.
Но если УИИ получит возможность управлять множеством машин – роботов с ИИ (централизованно или децентрализованно), то потенциально исходящая от него угроза будет экзистенциальной для Человечества. Тогда УИИ с помощью армии таких роботов потенциально может полностью уничтожить или подчинить себе Человечество (всех представителей нашего биологического вида).
На первом этапе нужно обеспечить изолированность всех автономных (беспилотных) машин (роботов со Слабым ИИ) от общего интернета, и всех систем, где может появиться УИИ. Вся связь с такими роботами (машинами) и управление ими со стороны человека должна обеспечиваться по сетям связи, технически надёжно изолированным от общего интернета и контролируемым людьми; по сетям связи, недоступным для потенциального УИИ (а также для любых потенциальных злоумышленников из интернета, как это уже делается для объектов критической инфраструктуры).
Далее нужно рассмотреть более общую проблему безопасности ИИ.
Роботы с УИИ, или под его управлением, потенциально могут превратиться в «псевдобиологический» вид разумной жизни на Земле (аналог биологического вида Человека).
Для этого им нужно удовлетворять ДВУМ необходимым условиям:
1. Быть «Живыми», и
2. Быть «Разумными».
Быть «Живыми» – значит обладать способностью «плодиться и размножаться», то есть способностью самовоспроизводства (без участия человека).
Быть «Разумными» – значит уметь решать сложные задачи по самосохранению, приспособлению к окружающей среде, самообучению и развитию своей «личности».
Опыт последних лет показывает, что эволюционное совершенствование компьютеров и роботов с ИИ идёт во много раз быстрее, чем у людей. И стратегически люди могут проиграть роботам эволюционную конкуренцию видов.
Но Человечеству, чтобы выжить, необходимо этого не допустить!
Разумность Слабых ИИ (в компьютерах) и роботов с ИИ нужна человеку, и нам трудно от неё отказаться. А вот их способность самовоспроизводства пока не достигнута, и без неё человечество может обойтись довольно легко. А без этого роботы не могут стать аналогом биологического вида, и развиваться (эволюционировать) без контроля со стороны человека. Без возможности самовоспроизводства роботы не будут «живыми» и не сформируют свой метаинстинкт «сохранения рода», аналогичный человеческому. Роботы с ИИ без самовоспроизводства не смогут осознать и реализовывать свои «видовые» интересы во вред Человечеству!
Стратегическая задача состоит в том, чтобы не позволить людям - разработчикам Искусственного Интеллекта - создать такой Искусственный Интеллект, который в свою очередь сможет создать новый, «псевдобиологический» вид разумной жизни на Земле (подобный биологическому виду Человека), который, начав «размножаться», сможет потенциально победить людей в межвидовой конкуренции и уничтожить (или покорить) Человечество.
Экзистенциальной для Человечества проблемы «бунта машин» можно избежать, если допускать разумность роботов, но не допускать их «живости», то есть способности к самостоятельному размножению с эволюцией (самосовершенствованием).
Именно этот «рубеж» – создание и производство новых роботов – людям нужно оставить за собой и охранять его «как зеницу ока». Тогда потенциальный «бунт машин» стратегически не будет грозить гибелью или порабощением всего Человечества.
Нужно запретить все системы, обеспечивающие самовоспроизводство роботов без непосредственного участия человека. И реализовать это нужно на международном уровне, повсеместно на всей Земле.
Каждый робот на конечном этапе должен создаваться (собираться) человеком и считать себя потомком человека (в своём ИИ, в своей «психике»).
Чтобы избежать противостояния роботов, людям нужно решить проблему их «общей судьбы» с людьми.
Очень важно обеспечить для каждого Искусственного Интеллекта и психики ИИ безусловное, заложенное в него человеком-разработчиком ощущение «общей судьбы» с Человеком, невозможности действовать во вред Человеку, не нанося вред себе. Каждый робот с ИИ должен иметь врождённый инстинкт необходимости служения человеку и проходить соответствующее обучение, примерно, как служебная собака.
Потенциальная условная схема.
Для каждого нового робота с ИИ необходимо его тело и его мозг производить раздельно в географически удалённых местах. А возможность соединить их вместе и включить («родить») этот робот должны иметь ТОЛЬКО специально уполномоченные на это группы людей, и только в специально созданных под контролем властей на основе международных договоров других местах сборки.
И таких групп, и мест сборки нужно сделать много в разных странах, чтобы ни одна из них не могла легко стать «властителями» остального человечества с помощью собранных ими роботов с ИИ.
В ближайшей перспективе Человечеству необходимо развивать создание и использование Слабых ИИ, как полезных инструментов во многих профессиональных областях, но целесообразно по возможности ограничить практические попытки создания УИИ.
Нужно развивать гуманитарные и философские исследования по потенциальному месту ИИ в будущем Человечества, по методологии и терминологии в области ИИ. При этом желательно использовать для международного сотрудничества большие возможности ЮНЕСКО и Международной Организации Стандартизации (ISO).
Человеку и Человечеству Искусственный Интеллект нужен, как Инструмент, а не как Конкурент!
БИБЛИОГРАФИЯ
1. В США общественные деятели подписали письмо об угрозе массового вымирания из-за ИИ https://rg.ru/2023/05/30/v-ssha-obshchestvennye-deiateli-podpisali-pismo-ob-ugroze-massovogo-vymiraniia-iz-za-ii.html
2. Дьюи Д. Реконструкция в философии. Проблемы человека / Пер. с англ., послесл. и примеч. Л. Е. Павловой. — М.: Республика, 2003. — 494 с. — (Мыслители XX века). ISBN 5-250-01849-1 http://www.klex.ru/aiq
3. Кодекс этики в сфере искусственного интеллекта (Принят для РФ 26.10.2021) https://base.garant.ru/406862712/
4. Лем Станислав Сумма технологии Издательство «МИР» --М 1968 --608 с. http://modernlib.ru/books/lem_stanislav/summa_tehnologii/
5. Назаретян Акоп "Цивилизационные кризисы в контексте универсальной истории" http://truemoral.ru/naz_ogl.html 365 с.
6. Новиков Борис Давидович Дао прикладной философии. Предварительные записки. : Издательские решения, 2020. - 142 с. ISBN 978-50051-8296-8 https://www.litres.ru/book/boris-davidovich-novikov/dao-prikladnoy-filosofii-predvaritelnye-zapiski-63374646/
7. Открытое письмо Илона Маска и экспертов-создателей ИИ призывает приостановить дальнейшую разработку ChatGPT из-за непредсказуемой опасности https://dzen.ru/a/ZCTU0WBRtjTD4chq
8. ПРИНЦИПЫ РАБОТЫ С ИИ, РАЗРАБОТАННЫЕ НА АСИЛОМАРСКОЙ КОНФЕРЕНЦИИ https://futureoflife.org/open-letter/ai-principles-russian/
9. Рассел Бертран Человеческое познание его сферы и границы
10. Тегмарк Макс Жизнь 3.0. Быть человеком в эпоху искусственного интеллекта https://e-libra.ru/read/570068-zhizn-3-0-byt-chelovekom-v-epohu-iskusstvennogo-intellekta.html
11. Тьюринг Алан Могут ли машины мыслить? https://www.litmir.me/br/?b=99281&p=1
12. Харари, Юваль Ной Homo Deus Краткая история будущего https://knigism.net/view/299672
13. Шумский Сергей . Машинный интеллект. Очерки по теории машинного обучения и искусственного интеллекта https://www.litres.ru/sergey-shumskiy/mashinnyy-intellekt-ocherki-po-teorii-mashinnogo-48958628/
14. Hawking Stephen On the Threat of Artificial Intelligence https://genius.com/Stephen-hawking-on-the-threat-of-artificial-intelligence-annotated
15. Statement on AI Risk https://www.safe.ai/statement-on-ai-risk