Учитывая, что реальность ИИ может быстро приближаться, крайне важно, чтобы мы выработали, как может выглядеть будущее с искусственным интеллектом. В прошлом году открытое письмо с подписавшими сторонами, включая Стивена Хокинга и Ника Бострома, призвало к тому, чтобы ИИ принес нау явную пользу человечеству или рискует чем-то, что превышает нашу способность контролировать его.
ИИ, как это задумано в популярной культуре, еще не существует, даже если автономные и экспертные системы существуют. Смартфоны могут быть не суперкомпьютерами, но они называются "смартфонами" не зря с точки зрения того, как работают их операционные системы. Кроме того, мы рады поговорить об «ИИ» компьютерной игры, но геймеры быстро учатся пользоваться ее ограничениями и неспособностью «думать» творчески. Существует важное различие между этими системами и тем, что называется искусственным общим интеллектом (AGI) или "сильным ИИ", ИИ с общим интеллектом и способностями человека.
Исследование правительствами США и Великобритании значения и последствий исследований ИИ было сосредоточено на потенциальных экономических и социальных последствиях. Но политикам смотреет подумать о том, что научная фантастика может рассказать им об общественном отношении - возможно, одна из самых больших проблем, касающихся ИИ.
В культурном плане наше понимание основано на том, как он представлен в научной фантастике, и есть предположение, что ИИ всегда означает AGI, чего он не делает. Вымышленные представления ИИ раскрывают гораздо больше о нашем отношении к технологии, чем о ее реальности (даже если мы иногда забываем об этом). Таким образом, научная фантастика может быть ценным ресурсом, с помощью которого можно оценить общественное мнение об ИИ и, следовательно, исправить, если это необходимо.
Я, робот: чем больше добро
В адаптации Алекса Пройаса рассказов Айзека Азимова «Я, робот» (2004) есть сцена от сердца к сердцу, в которой мы узнаем о причине недоверия детектива к роботам. Он рассказывает об автокатастрофе, в которой две машины оказались в реке, и что робот решил, что лучше спасти детектива, чем спасти ребенка, потому что у детектива был более высокий процент шансов на выживание. Сцена служит для демонстрации бесчеловечности ИИ и человечности детектива, который решил бы спасти ребенка. Эта сцена, несмотря на весь ее голливудский блеск, свидетельствует об основных этических проблемах, связанных с исследованиями ИИ: она очерняет ИИ как не «моральный», а просто образец закодированного поведения.
Но действительно ли робот в этой ситуации ошибается? Разве не лучше спасти одну жизнь, чем потерять две? Здесь экстренная сортировка не рассматривается как "бесчеловечная", но необходимая. Аргументы «Большого добра» продолжаются на протяжении веков, и в этой ситуации «большое» добро, спасающее полицейских или ребенка, спорно, тем более что детектив позже спасает человечество от разрушительных разрушений VIKI, ИИ, который стал изгоем.
Контекст, в котором принимается это решение, параметры, с помощью которых робот достиг своего процентного вывода, также могут учитывать любое количество проблем, хотя и ограниченных теми, которые запрограммированы в нем. Является ли эмоциональная реакция, если спасение ребенка является принципиально эмоциональным подходом, правильным?
Одна из проблем, с которой мы сталкиваемся как общество, связанное с будущим ИИ, заключается в том, что машинный интеллект может фактически продемонстрировать непредвиденность наших собственных моральных кодексов, когда мы хотим верить, что они универсально применимы. Проблема не в том, что робот был неправ, а в том, что на самом деле это может быть правильно?
Взаимодействие с ИИ
Способы представления ИИ приводят практически к тому же выводу: любой ИИ бесчеловечен и, следовательно, опасен. Так же, как ВИКИ в I, Robot поворачивается против человечества, когда она находит еще одну «логическую» интерпретацию трех законов Азимова (предназначенных для защиты людей), есть множество историй и фильмов, в которых ИИ захватывают мир (франшизы Дэниэля Х. Уилсона Робопокалипсис и Робогенез, Матрица и Терминатор). Есть еще много информации о том, как они коварны и будут напрямую контролировать человечество или позволят фракциям взять более полный контроль над обществом (решение об убийстве Дэниела Суареса, истории политики Нила Эшера, сериал "Человек интересов").
Но относительно мало о том, как они могут сотрудничать с человечеством (Азимов пришел сюда на раннем этапе и остается одним из немногих, хотя вспомогательные трилогии Энн Леки также представляет интерес). Лицемерие заключается в том, что эта тенденция предполагает, что правительства могут следить за своими гражданами, а корпорации - анализировать каналы социальных сетей (даже с помощью программных ботов), но ИИ не должен этого делать. Это все равно, что сказать, что вы счастливы, что вас облажают, но только политической системой или другим млекопитающим, а не компьютером.
Таким образом, одно из решений заключается в том, чтобы подумать о том, как ограничить ИИ и научить их человеческой этике. Но если мы «обучаем» ИИ этическому поведению, кому мы доверяем, чтобы обучить их? К чьим этическим стандартам? Учитывая недавние проблемы, с которыми Microsoft с Тэем (члены общественности пытались «обманить» ИИ, чтобы сделать потенциально оскорбительные заявления), ясно, что если ИИ узнает от человечества, то, что он узнает, может быть точно тем, что мы не стоим времени, необходимого для того, чтобы написать нам в Твиттере. Мы не доверяем роботам думать сами за себя, мы не доверяем себе программировать их или использовать этически, и мы не можем доверять себе, чтобы учить их. Что делать с ИИ?
Общественное восприятие ИИ будет регулироваться именно таким недоверием и подозрением, подкрепляемым такими публичными фиаско и широко негативным взглядом, очевидным во многих научных фантастических произведениях. Но такие примеры, возможно, показывают, что проблема с ИИ заключается не в том, что он «искусственный», не в том, что он аморальный, и даже в его экономическом или социальном воздействии. Возможно, проблема в нас.