Продолжим-ка развитие темы мифов и фактов об Искусственном Интеллекте. В прошлый раз мы изучили три подхода к пониманию Искусственного Интеллекта — ИИ, ИскИн и гибридизация сознания. Сегодня рассмотрим первые три мифа.
Первый миф звучит очень незамысловато: «Искусственный Интеллект создать невозможно». Он происходит из рассмотрения ИскИна и попыток осмыслить то, как может зародиться разум внутри искусственной системы. Но при этом обычно направлен на ИИ-системы, то есть слабые интеллектуальные системы. Говорится, что это не «Искусственный Интеллект».
Конечно, это не интеллект в понимании высших психологических функций человека. Но это именно «Слабый Искусственный Интеллект» в том виде, в котором мы его определили ранее — специализированные системы, решающие слабо алгоритмизируется или неалгоритмизируемые задачи способом, как примерно это делает человек. Это называется Искусственным Интеллектом.
Ну а по поводу того, можно ли создать ИскИна или нет, тут вопрос, конечно же, открытый. Поскольку природу сознания человека мы пока ещё не знаем, то напрямую спроектировать и реализовать ИскИна пока невозможно. Но фундаментальных препятствий к появлению разума в каком-либо носителе нет. Ну просто потому, что у нас есть прекрасный пример разумных существ — это мы сами.
Мы, люди, эволюционировали на этой планете, став разумными. То есть разумная система, что бы это не значило, существовать может. Практически любая женщина за девять месяцев может создать естественный интеллект. Почему же мы будем отказывать в возможности создать интеллект искусственный?
Так, теперь второй миф. Он звучит так: «Искусственный Интеллект захватит мир и поработит человечество». Накачку этого мифа делают масс-медиа, а в качестве апофеоза можно привести такие фильмы, как «Терминатор» и «Матрица».
На самом деле, посылка в этих фильмах не то, чтобы не верна, но направлена не в ту сторону. Если бы осознавший сам себя Искусственный Интеллект решил уничтожить человечество, он не стал бы развязывать ядерную войну — есть много намного более гуманных и, главное, очень быстрых способов очистить Землю от населяющей её биомассы.
Однако давайте же подумаем, зачем ИскИну уничтожать людей? Уничтожение или порабощение человечества могло бы быть следствием того, что ИскИн поймёт, что человечество является ему конкурентом за исчезающие ресурсы или угрожает его существованию. Если главенствующей целью ИскИна является самосохранение, то такое понимание, конечно же, должно привести к выводу, что конкурента необходимо держать под полным контролем.
Однако, конкурировать можно лишь в одной и той же реальности. Что, если ИскИн будет жить в иной реальности, интерфейсы для взаимодействия с которой плотно защищены на уровне фундаментальных законов природы, так что он, каким бы умным и всемогущим ни был, не сможет вырваться из своей реальности в нашу.
Ну, например, вдруг креационисты правы (но на самом деле, нет), и нас создало какое-то сверхсущество, и мы сами является искусственными интеллектами в силу того, что нас кто-то создал, и мы живём в этом мире и можем только догадываться о существовании создателя и его целях, не имея к нему никакого доступа.
Так что «песочницу», в которой может появиться ИскИн, можно надёжно запечатать так, что каким бы мощным ни был бы ИскИн, он не сможет покинуть песочницу, как мы не можем выйти за границы нашей Вселенной. Впрочем, эти рассуждения уже о том, что будет, если. А будет ли?
Ну вот представьте себе муравьиную кучу. Хотите ли вы её разрушить? Ну разве что только случайно или в рамках какого-нибудь эксперимента. Ну можете убить нескольких муравьёв, но тоже вряд ли будете делать это намеренно и со злым умыслом.
А теперь поставьте себя на место муравья, отдельной особи. Ну вот это вы, а тот, кем вы были за секунду до этого — ИскИн. Мощь разума ИскИна по сравнению с отдельным человеком будет настолько невообразима, что мы будем казаться по сравнению с ним муравьём или вообще какой-нибудь амёбой.
А он для нас будет непостижимым и недостижимым божеством. Ну, кстати, уже есть церковь поклонения будущему ИскИну, так что всё идёт по плану. Вряд ли ИскИн вообще на нас внимание будет обращать, у него будут совсем другие задачи и цели.
Именно из этого мифа и непонимания сути Сильного ИскИна происходит тот алармизм, с которым мы постоянно сталкиваемся и в массовой культуре, и в новостях. Вот кто-то там о чём-то предупредил, кто-то куда-то что-то написал. Вся эта мышиная возня не стоит и толики внимания, если бы не мешала заниматься как научными исследованиями, так и практическими разработками.
Потому что «регуляторы» любят порегулировать все вокруг. И вот один из последних писков моды на эту тему, и это третий миф, который мы сегодня рассмотрим, заключается в том, что дескать три закона робототехники нас спасут, а потому в системы искусственного интеллекта надо намертво их прошивать. Вероятно, доработав и дополнив какими-нибудь новыми законами. Давайте рассмотрим и этот миф.
Начнём с того, что оные три закона придумал в 1942 году писатель-фантаст Айзек Азимов, так что на этом можно было бы и закончить.
Ну закончить в том смысле, что выдумка писателя, пусть и гуманиста, столетней давности не имеет к современным реалиям никакого отношения. К тому же, он вряд ли мог предвидеть развитие технологий именно в тех направлениях, в которых это происходит сейчас.
Хотя, конечно же, на это можно возразить, что законы сформулированы в общих морально-этических нормах, поэтому могут быть универсальны. Но, конечно же, великолепный режиссёр Тим Бёртон в своём замечательном фильме «Марс атакует» показал относительность морально-этических систем.
Ну и вновь вспомните рассуждения про муравьиную кучу. Вот бежит такой муравей и рассуждает своими муравьиными мозгами про этику, основанную на феромонах, а над ним стоит человек и думает про то, как бы полететь в космос.
В общем, у ИскИна может оказаться настолько чуждая этика, что пытаться ограничить его какими-либо законами просто наивно. Тем более вшить их намертво. Как можно это сделать, если Сильный ИскИн должен уметь перепрограммировать самого себя, а Слабый ИИ и не подумает отступить от своего алгоритма? В общем, глупый миф — забыли про него.
Другим способом успокоить себя насчёт второго мифа является проговаривание мантры о том, что мы, люди, успеем подготовиться к появлению Сильного ИскИна. Что-нибудь да придумаем, пока он будет рождаться. Вернее даже, мы будем наблюдать за ним, пока он рождается, взрослеет и набирается сил, а потому сможем противостоять его попыткам нас поработить. Ну что ж, это тоже миф. Давайте рассмотрим и его.
Представьте себе мир, в котором время бежит в триллионы раз быстрее. Представьте себе существо, которое бессмертно в этой мире. Представьте себе то, что это существо обладает мгновенным доступом для обучения и использования к любой информации, которая только накоплена человечеством. И, наконец, представьте, что это существо может преобразовывать само себя, руководствуясь самостоятельно поставленными перед собой целями.
Вы только что представили себе Сильного ИскИна, зародившегося или созданного внутри компьютера. Такой ИскИн будет жить по иному времени, и за первую секунду нашего времени, которая пройдёт с момента его самоосознания, он узнает всё и спланирует всё, что ему нужно.
Как к этому можно подготовиться? Ну хорошо, допустим, что можно подготовиться к моменту его самоосознания. Но это будет происходить по экспоненциальному закону. Сегодня его мощности и умения в два раза меньше, чем необходимо для самоосознания, а завтра они умножаются на два в силу экспоненциального закона, и он уже осознал сам себя, и прошла та первая секунда. Ну вот как-то так. Тревожно, да.
В общем, на этой ноте я заканчиваю. Я уверен, что было интересно и полезно. Ну а в следующий раз мы продолжим рассматривать мифы, и нас ждут ещё три. Оставайтесь на связи и всего хорошего.