Согласитесь, претенциозное название для статьи?
Давайте разбираться, в чём дело.
Всем любителям фантастики знакомы те самые заветные три фразы, которые управляют логикой поступков больших железных андроидов:
- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
- Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
- Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Маэстро Айзек Азимов создал, казалось бы, гениальную систему, лучший набор алгоритмов, который обезопасит человека от разбушевавшегося ИИ. Благодаря этим вшитым в чипы директивам, роботов можно смело приводить домой и посадить на привязь относиться как к ещё одному члену семьи.
Но не так-то тихо в Датском королевстве, как могло бы показаться.
У законов есть некоторые противоречия, которые на первый взгляд, конечно, не видны. Но выдающиеся умы, включая самого Азимова, признали, что с виду непревзойдённые тезисы на деле могут оказаться угрозой.
Так, в сборнике “Остальное о роботах” сам автор пишет предисловие к рассказу “Первый закон”, где чётко указывает, что его законы породили достаточное количество несостыковок и противоречий на долгие годы вперёд. И это как раз очень хорошо для новых романов.
Как минимум, начнём с того, что роботы могли нарушать эти законы, когда сравнивали вероятности исходов в случае действия или бездействия. Если по их мнению исполнение приказа противоречило с принципом ненанесения вреда человеку, то они могли отказаться его выполнять. Например, в случае, когда нужно проводить операцию, некоторые роботы думают, что тем самым они сделают человеку плохо, не понимая, что без вмешательства будет только хуже. Конечно, более продвинутые модели могут обсчитать такие варианты, но вот вам первый звоночек.
Во-вторых, позитронный мозг робота может стать кирпичом, прямо как модный айфон, если осознает, что не может выполнить первый закон, который он обязан выполнять. То есть, например, стоит робот и где-то вдалеке видит, как убивают человека. Чисто физически спасти жертву уже не получится, и робота “фризит” из-за внутреннего противоречия. Такая же история получится при случайном нарушении закона. В итоге, вместо хорошего функционирующего помощника имеем груду раскаявшегося металла. Так себе исход, правда?
В-третьих, нужно ещё поговорить о том, что вообще понимать под словом “вред”. Потому что этот посыл определяет всю дальнейшую тактику поведения роботов. Например, в рассказе “Лжец!” Херби, робот-телепат, считал, что некоторые вещи, которые он говорит, могут травмировать людей изнутри, вызывая душевную боль. И тогда он стал говорить неправду, чтобы люди не расстраивались. Тоже не очень ситуация, так ведь?
Элайдж Бейли в “Обнажённом солнце” вообще полагает, что робот может преступить законы по незнанию. То есть, если не поставить его в известность о конечной цели задания, то в итоге он может и убить человека. А там уже и позитронные мозги заклинит, и опять привет, кирпич.
Точно так же работу можно разделить между несколькими роботами, просто не объясняя каждому полную картину. И тогда они тоже запросто нанесут вред человеку своими действиями, хотя им будет казаться, что всё в порядке.
Мистер Бейли вообще предлагает внести в первый закон небольшую поправку, чтобы он выглядел следующим образом: “Робот не может делать что-либо, что, насколько ему известно, причинит вред человеческому существу или умышленно допустить, чтобы человеческому существу был причинён вред”.
Хотя и эта мера не спасёт от таких искусственных интеллектов, как, например, V.I.K.I.
Но прежде чем разобрать её случай более детально, откроем вам страшную тайну: законов роботехники на самом деле не три, а четыре. Ещё есть так называемый нулевой закон, который Азимов сам же и ввёл в романе “Основание и Земля” устами робота Дэниела Оливо: “Робот не может нанести вред человечеству или своим бездействием допустить, чтобы человечеству был нанесён вред”.
Принципиальное отличие от первого закона заключается в том, что нулевой предполагает чёткую иерархию приоритетов: сначала всеобщее благо, а потом уже отдельного человека. Эдакий позитронный коммунизм, кстати говоря.
Смысл в том, что если на кону будет стоять смерть одного человека против смерти всего человечества, робот должен выбрать первое.
Собственно, этот закон не закладывался в мозги роботов напрямую, но вышеупомянутый Дэниел Оливо и Жискар Ревентлов пытались прийти к нему сами путём осознания концепции, когда под конец романа “Роботы и Империя” им пришлось проигнорировать приказ человека, чтобы подтолкнуть остальное человечество к лучшему.
А теперь вернёмся к киношной V.I.K.I. Если проанализировать её поведение, то выходит, что она исполняла именно нулевой закон, ставя благо человечества выше блага отдельных его элементов. Она посчитала, что люди сами себе вредят, и сильно ограничила их свободу, по сути превратившись в полноценного ИИ-террориста. Вот вам и доказательство опасной природы установленных Азимовым законов.
Подводя итог, заметим, что мысленные эксперименты перестают быть мысленными, потому что человечество становится всё ближе к изобретению настоящего искусственного интеллекта. Но пока этого не произошло, мы должны не оставлять надежды обнаружить новые, более подходящие способы регулировать поведение роботов, с которыми нам когда-нибудь придётся уживаться.
Возможно, тем самым изобретателем новых законов станет кто-нибудь из вас, уважаемые читатели?
#книги #читать_онлайн #фантастика #научная_фантастика #роботы