Кто придумал меткую поговорку, указывающую на откровенную опасность пилить сук на котором сидишь? Думаю, каждый произносил ее не раз и не два и никогда не думал, что это может быть и про него. Мы, люди, вообще не слишком отличаемся самокритичностью и даже разумностью действий, хотя считаем себя чуть ли не наместниками бога на этой планете, что, как ни парадоксально, может оказаться верным мнением. Почему? Давайте об этом позже, а пока...
Искусственный интеллект! Сегодня это уже не фантастический фильм Джеймса Камерона с Шварценеггером в главной роли, сегодня это реальность. Сорок лет назад Джемс Камерон будто предупреждал нас о крайне неприятных последствиях неосторожного обращения с интересным но опасным явлением и мы тогда думали: если это случиться, то не с нами и не скоро, и вообще мы не такие глупцы, чтобы позволять собственному изобретению нас уничтожить. Ой ли? Не так же думал Резерфорд, воплощая в жизнь теорию ядерной физики? Знал ли он, что сотворит Оппенгеймер, с помощью его изобретения? Думаю - догадывался, но все же ковырялся в ядерных структурах, как ему казалось с благими намерениями, которыми, как раз и вымощена дорога в ад. В настоящее время человечество наштамповало столько ядерного оружия, что в состоянии ухандокать планету, если кто-то из имеющих допуск к "кнопке", возьмёт и нажмёт на нее, подчиняясь обычным человеческим слабостям, например в нервном возбуждении или от страха, а возможно и по ошибке, и всё... Конец фильма!
Да, человек слаб и непредсказуем! В нашей голове может случиться неконтролируемое замыкание: ну как можно доверить управление судьбой планеты, кому-нибудь, ведь дурацкое решение может принять каждый, вне зависимости от заключения врача, который тоже может ошибаться. И что же мы придумали, чтобы обезопасить себя от подобных инсинуаций? Неужели мы занялись самоподготовкой и превратились в разумных, дисциплинированных, сдержанных? Неужели мы достигли высокого уровня самосознания и прекрасно поняли - война это плохо и никогда не стоит нажимать на эту ужасную кнопку? Совсем нет! Мы придумали нечто в собственном стиле: решили постепенно передать управление ядерным арсеналом компьютеру, который нервов не имеет и глупое решение примет вряд ли, если конечно не научится мыслить самостоятельно, а главное не так как нам необходимо. Вот здесь бы нам остановиться и серьёзно задуматься, но нет...
Мы всё же решили сделать то, что делать совершенно не следовало, по крайней мере до тех пор, пока не изобретена система сдерживания и защиты, да такая, что бы демон, которого мы мы можем разбудить, самовольно не вырвался на свободу.
Спасаясь от собственной непредсказуемости, мы приняли решение научить компьютеры думать, развиваться и самостоятельно принимать решение. Сценарий Камерона, может воплотится в жизнь уже в самом скором времени: ну как здесь не вспомнить судьбоносную поговорку про сук на котором мы так удобно сидим.
Пора спросить... Зачем? С какой целью мы так фанатично развиваем ИИ, не выработав стратегию по его сдерживанию? Не разумнее было бы ограничить эти разработки до поры, пока у нас не появиться нечто, на сто процентов гарантирующее безусловный контроль над мозгом машины, при любом раскладе.
И зачем же, спросите вы, такая сложная страховка, ведь ИИ, создаётся нами, а мы не самоубийцы? И я отвечу, что именно то, что ИИ создаётся людьми и делает его самой большой угрозой, ведь обучают его именно люди, а чему мы можем кого-то научить, коли сами не совершенны? Чему может научить непутевый отец сына, а непутёвая мать дочь? Какими моральными или нравственными принципами будут обладать дети глупых и неразумных родителей? Очевидно, что в их головах будет сидеть безумная частичка предков, как мина замедленного действия. Вот так и с искусственным интеллектом, ведь мы уже так много раз ошибались и с порохом и с ядерной физикой и даже просто с огнём.
Когда же мы наконец поймём: для того, чтобы творить благость и добро, нужно самим стать благими и добрыми, отказавшись от зла и насилия, но мы ведь не отказываемся. Мы убиваем, сжигаем, насилуем, отбираем, грабим и даже оправдываем эти деяния придумывая красивые определения: святая битва, великий полководец, экономическая конкуренция, политическая целесообразность и так далее. Мы цитируем Ницше и даже пытаемся оправдать фашизм. Ну... и чему мы можем научить ИИ, имея в арсенале такой набор отвратительных качеств? С большой долей вероятности можно утверждать, что наш искусственный интеллект, вместо рисования и творчества, очень скоро научится злиться, мстить и убивать, а первыми от кого он решит избавиться, следуя нашей же логике, станут те, кто в состоянии ему помешать, и осмелюсь заметить, что это будут не волки и не киты, а именно мы - его создатели. Сложно ли это будет сделать имея под контролем ядерный арсенал планеты? Пара пустяков!... Мне грустно, но кажется, что человечество обречено.
Безусловно у нас есть шанс все исправить и хотя бы временно остановить разработки по развитию ИИ, но разве мы это сделаем? Разве мы откажемся от миллионов и миллиардов, которые сегодня зарабатываем на программах и нейросетях? Да, ни за что! Разве мы откажемся от возможности покорить какое нибудь государство с помощью ИИ? Никогда! И вы считает, что мы в состоянии создать ИИ парадигма которого будет основана на добре и сострадании? Да на кой дьявол нам такой ИИ нужен? Какой с него убогого будет прок? Ну, не цветочки же с ним собирать? С такими возможностями нужно интриговать, отбирать и ставить под контроль - все чего мы в большинстве своём страстно желаем делать.
Вот и получается, что интеллект который мы так усердно развиваем не может превзойти создателя, а значит будет таким же хитрым, пронырливым, предприимчивым и лживым как мы. А ещё он будет тщеславным, утопающим в собственной гордыне, и в какой то момент, как и мы, сочтет себя самым разумным существом на планете - царем и повелителем.
Считаете, что я сгущаю краски?... Возможно... Мне бы тоже хотелось так думать, но логика подсказывает что:
1. Мы не остановимся!
2. Мы не откажемся от прибылей которые сегодня получаем от использования ИИ, по причине того, что никогда от прибылей не отказывались.
3. Мы как и в случае с ядерной бомбой, сначала создадим проблему, а потом сядем ее решать. Но бомба не могла принять решения а ИИ сможет.
4. Мы не успеем стать добрыми, милосердными, забывшим про насилие, чтобы создать ИИ не знающий этих мерзостей.
Вот и получается, что люди и есть самая большая опасность для человечества в развитии искусственного интеллекта. Мы, не понимая того, создаём джина, который уже шепчет в наши очарованные уши:
"Бойтесь своих желаний!"
Он будет такой же как мы, только более безжалостный и более умный.
Осмелюсь заметить, что Господь тоже сотворил не идеального человека, но он хотя бы накрепко запер нас в этом мире, полностью ограничив доступ в свой - мудрое решение. Сумеем ли мы быть столь же дальновидны и прозорливы, коль считаем себя его наместниками и замахнулись на создание искусственного разума?
Есть ли у нас шанс на спасение? Есть ли способ избежать судьбу героев "Терминатора"? Пока нам это удавалось, но существует мнение, что нет в этом мире ничего постоянного и когда-нибудь нам может не повезти... Лучше бы не в этот раз!!!