Найти тему
Multimargarin

Вчера я прочитала рассказ Роберта Шекли «Страж-птица»

Вчера я прочитала рассказ Роберта Шекли «Страж-птица». Если вы не знаете, Шекли — знаменитый американский писатель-фантаст. Я обычно на фантастику соглашаюсь с огромным трудом, но в этом случае мне пообещали, что там будет про Искусственный Интеллект (а эту тему я люблю), и должно быть интересно. Рассказ объёмом меньше ста страниц оказался действительно интересным. Прочитала я его быстро и теперь хочу предложить тем, кто ещё не знаком с этим рассказом, поразмышлять над одной загадкой.

В каком-то далёком будущем человечество принимает решение, что за убийства надо не только наказывать законными методами, но и попробовать их предотвращать. Для этого изобретают страж-птицу — самообучающийся механизм-беспилотник, который будет улавливать химические реакции человека, собирающегося совершить убийство или акт насилия. При обнаружении страж-птица выстреливает электрическим зарядом, тем самым блокируя потенциального преступника и обезвреживая его. В случае сопротивления может и убить.

Но создатели допустили ошибку на этапе программирования причин действий у ИИ: «Не допускать, чтобы одно живое существо ломало, увечило, истязало другое существо или иным способом нарушало его жизнедеятельность». ­

На этом моменте я предлагаю вам поразмышлять, в чем именно заключалась ошибка и какое развитие сюжета со страж-птицами было в дальнейшем. И второй вопрос, который может заспойлерить ответ на первый, но он настолько интересный, что рискну подкинуть его для размышлений и вам: какое определение человека, как вида, вы бы запрограммировали в ИИ.