Я делюсь своими знаниями в области философии сознания, чтобы обычный человек понимал, чем он отличается и всегда будет отличаться от машины. Почему это важно?
Дело в том, что я часто в публикациях про Искусственный интеллект стала встречать выражения «мясные мозги» и «кожаный мешок» как ироничное обозначение Естественного интеллекта и его носителя – человека.
Вам приятно слышать, что вы «кожаный мешок»? Вот и мне - нет. Неплохо бы иметь доказательства того, что такая метафора – это дискриминация, основанная на неглубоком понимании того, что есть интеллект и сознание человека.
При этом я по-прежнему считаю, что технологии – это наше будущее, они помогают и будут дальше помогать решать очень многие проблемы. Но я против того, чтобы за наше общее будущее отвечали люди, которые не видят принципиальной разницы между интеллектом человека и собаки.
Вот пример статьи об Искусственном интеллекте, в которой авторы с юмором и простым языком объясняют, что такое интеллект по их мнению. Исходя из своего определения интеллекта они приходят к выводу, что человеческий разум это «ограниченный мясной мозг», а Искусственный интеллект, наоборот, не ограничен в своём развитии и имеет шансы стать Сверхразумом и людям надо смириться с этим. У меня есть возражения и относительно определения интеллекта и выводов в этой статье. Если вы согласны считать себя «кожаным мешком», то терять время на дальнейшее прочтение не имеет смысла.
Давайте для начала я процитирую авторов этой статьи, а потом объясню, в чём они правы, а в чём фатально ошиблись.
«В наших рассуждениях об «интеллекте» мы будем использовать концепцию некоего агента (человека, животного, машины), который может совершать некие действия для достижения цели.
Дальше возможно три уровня агентности:
Первый уровень. Агент достигает цели, потому что управляется человеком или алгоритмом. Трактор копает яму, а калькулятор умножает числа, потому что мы его так построили. Такого агента мы считаем «тупым». В нём нет интеллекта.
Второй уровень. У агента есть цель, но он сам выбирает максимально эффективные действия для её достижения. Например, цель самоездящего автомобиля — довезти вас до бара в пятницу вечером. Он знает карту города, наверняка знаком с ПДД, но никто его не программировал как «двигайся 2 метра прямо, потом руль на 30 градусов направо» — он действует по ситуации на дороге и каждый раз она будет разная. Мы называем их «узконаправленными AI» и частенько встречаем вокруг — в рекомендательной ленте ТикТок'а или в камере вашего смартфона.
=== вы находитесь здесь ===
Третий уровень. Агент может ставить и достигать любую цель в любой, даже ранее неизвестной ему, среде. Например, «добыть молока». И выбрать любой путь — сгонять самому в магазин, заказать молоко в интернете или украсть у соседа корову.
Примеры интеллектов такого уровня — человек или собака. Мы умеем применять свой интеллект для достижения каких-то пришедших нам в голову целей в условиях, в которых никогда не оказывались. (В случае с моей собакой даже её цели изваляться в грязи мне не всегда ясны. Но она может!)
Когда такой «агент» реализован в виде машины, мы называем его «универсальным искусственным интеллектом», либо AGI (Artificial General Intelligence), либо full AI — мы не договорились еще, короче.
Фишка лишь в том, что наши с собакой мозги ограничены физически, а вычислительные возможности машин растут экспоненциально. Благо, песка на планете завались (кремния, ну).»
В приведенном выше рассуждении человек, как и собака объявляются агентами третьего уровня. То есть они умеют ставить перед собой разные конечные цели. Например, человек способен достичь таких целей: приготовить пищу, построить дом, съездить в путешествие или набрать миллион лайков и сделать это разными способами.
Авторы статьи намеренно не замечают, что человек в отличие от других животных, может ставить себе заведомо недостижимую, до конца непонятную ему цель и идти к ней, согласовывая с этой целью все остальные.
Я говорю о вере в Бога.
Впрочем, стремление к нирване такая же не до конца понятная, возможно недостижимая, но желанная для многих цель.
Может стоить назвать человека агентом четвертого уровня? Интеллектом, который догадался ставить перед собой недостижимые цели, чтобы достигать большего, чем можно представить.
Знаю, что многие до сих пор полагают, что любая религия как вера во что-то сверхъестественное была придумана людьми, чтобы объяснить себе природные явления, которые на момент появления религии не могла объяснить наука или чтобы одним людям было проще эксплуатировать других. Знаете, в чем недалекость таких рассуждений? Это примерно как сказать, что человек отрастил себе руки чтобы воровать ими еду у других или чтобы одни люди могли заставлять других людей срывать им бананы или строить дома. Руки каждого человека нужны прежде всего ему самому для выживания, поэтому они появились в процессе эволюции.
Я утверждаю, что религиозное мышление как способность верить, что есть кто-то(или что-то), недоступный восприятию через органы чувств, но все-таки существующий, в людей заложила природа в ходе эволюции.
Она подтолкнула их обозначить что-то нематериальное, что-то за пределами понимания. Это видовой признак сапиенсов. У него было и есть назначение. И да, можно использовать чужие руки для достижения своих целей, также можно использовать склонность человека к религиозным представлениям ради управления им, но это не отменяет того факта, что религиозное мышление это что-то нужное и важное для самого человека и человечества в целом.
Вернемся к статье про «мясные мозги» и Искусственный Сверхразум, которая вызвала у меня неоднозначную реакцию. Авторы полагают, что есть «проблема постановки целей для ИИ» и это проблема на стороне человека, а не ИИ. То есть это интеллект человека недостаточно умный, а не ИИ. Вот пример того, что авторы называют «проблемой постановки целей для ИИ».
«Представим, что мы проектируем самоездящий автомобиль, которым управляет настоящий ИИ. Мы поставили ему цель — довозить пассажиров до места назначения как можно быстрее.
В первую же свою поездку наша машина разгоняется до 300 км/ч по городским кварталам, сбивает десяток пешеходов и объезжает красные светофоры по тротуару. Технически, цель достигнута»
Конечно такой путь достижения цели нас не устраивает. Но по мнению авторов это не проблема несовершенства Искусственного интеллекта, а проблема человека, который не может сразу поставить цель перед ИИ так, чтобы он реализовал её именно так, как мы хотим с учетом всех норм, правил, законов.
Дальше авторы уточняют, что если задать ряд жестких ограничений на способы достижения цели, то это сработает не всегда, ведь мы не можем предусмотреть заранее все возможные ситуации, с которыми ИИ столкнётся, что-то точно забудем, что-то опять неправильно сформулируем и тогда система ИИ достигнет цели, ценой чьей-то жизни и глазом, как говорится, не моргнет. Но это опять, по мнению этих экспертов, проблема ограниченных возможностей человеческого разума, а не как не ИИ.
А между тем наш собственный разум пример интеллектуального агента, который не только цели себе ставит сам и ищет пути их достижения, но и сам задает себе ограничения! Есть ограничения жёсткие, заложенные в нас природой, а есть те, которые задаём себе мы сами и постоянно корректируем. Объясню свою мысль на примерах.
Допустим, хочет человек поменять телефон на новый, но вдруг заболевает его ребенок и выясняется, что лечение потребует всех свободных средств. Человек откладывает покупку телефона и покупает лекарства. Забота о потомстве - это жесткое ограничение на пути достижения собственных целей и это ограничение заложено в человека природой в виде сложных биологических программ поведения, подчиняющих себе интеллект человека.
А вот другая ситуация. Человек хочет купить телефон, но у него нет на это денег. Он идёт по улице и видит, как прохожий впереди него теряет купюры из заднего кармана брюк. Теряет и не замечая, идёт дальше. Человек может поднять эти деньги, забрать незаметно себе и купить телефон, достичь своей цели на вполне законных основаниях, кстати, но он принимает решение отдать деньги тому, кому они принадлежат.
И третья ситуация. Та же самая, что и предыдущая, только в ней человек не телефон хочет купить, а еду или лекарства близкому человеку и вот перед ним кто-то теряет деньги на дороге...
Во всех этих ситуациях разные люди поступят по-разному. Человеческий интеллект вариативен. Ограничения, которые люди сами ставят себе на пути достижения своих целей тоже варьируются. У этой вариативности наверняка тоже есть эволюционное назначение.
Людей, которые ради богатства убивают, воруют, обманывают других, большинство из нас называет животными. Потом подумает и добавит, что и животное так не поступает. Нам не приходит в голову сказать, что это Сверхчеловек, который просто умеет достигать своих целей быстрее других.
Я не понимаю, как авторы статьи умудрились посчитать, что Искусственный интеллект, который будет ставить перед собой разные цели и достигать их любым путем быстрее человека нужно считать Сверхразумом??
Природа создала «Я» человека, ещё до того, как он изобрел лук и стрелы, каменный нож и тем более ядерное оружие. И это «Я» само способно ставить себе ограничения, а ещё бесконечно уточнять их в рамках исторического развития вида. Гениально придумано, разве нет?
О том, почему наши предки обрели «Я» благодаря возникновению языка, религии и морали, я расскажу в следующий раз.
Всё, о чем я пишу интересно само по себе, но также важно для понимания того, как создать Сильный Искусственный интеллект, который как и мы сам будет оценивать своё поведение, ставить себе гибкие ограничения, стремиться к идеалу. До появления Сильного ИИ надо постараться не дать уничтожить человечество тем, кто считает людей «кожаными мешками».
P.S. Несмотря на критику, которую я позволила в адрес этой статьи, должна признать, что в ней озвучены и очень правильные вещи. В частности, они полагают, что каждая команда, которая занимается созданием систем Искусственного интеллекта должна иметь в составе специалистов по AI alignment. Эти специалисты должны гарантировать, что созданный ИИ ни при каких условиях не станет достигать поставленных ему целей с нарушением законов или этических норм.
Как всегда 👍 помогает мне понять, что я публикую свои мысли не зря.