Словосочетание “искусственный интеллект” было придумано организаторами Дартмутского летнего исследовательского проекта по искусственному интеллекту в 1956 году. Они считали, что “каждый аспект обучения или любой другой особенности интеллекта в принципе может быть описан настолько точно, что можно создать машину для его имитации”, и стремились дать машинам возможность “использовать язык, формировать абстракции и концепции, решать проблемы, которые в настоящее время зарезервированы для людей, усовершенствуйте себя”.
В то время как нейронные сети играли определенную роль в их мышлении, дартмутские исследователи изобрели термин “искусственный интеллект” отчасти для того, чтобы дистанцироваться от кибернетики, существующего подхода к созданию машин, которые могли “думать”, используя непрерывные значения для формирования прогнозирующих моделей их окружения.
Несмотря на свои взлеты и падения, термин “ИИ”, похоже, останется здесь, в то время как “кибернетика” канула в безвестность. По иронии судьбы, самые мощные системы искусственного интеллекта сегодня во многом придерживаются кибернетических традиций: они используют виртуальные “нейроны” с непрерывными весами и активациями для изучения функций, которые создают прогнозирующие модели на основе обучающих данных.
Законы робототехники
Рассказы писателя-фантаста Айзека Азимова "Я, робот" иллюстрируют, как нереалистичные амбиции GOFAI сформировали наше представление об этике ИИ. Азимов представил будущее, в котором все роботы будут запрограммированы на набор стандартных “законов”, регулирующих их поведение:
- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
- Робот должен подчиняться приказам, отдаваемым ему людьми, за исключением случаев, когда такие приказы противоречат Первому закону.
- Робот должен защищать свое собственное существование до тех пор, пока такая защита не противоречит Первому или Второму закону.
Конечно, в рассказах Азимова, как и во всей научной фантастике, возникают проблемы — иначе не было бы сюжета! Проблема, как правило, связана с законом. Некоторая комбинация необычной ситуации и, по-видимому, здравых, но нелогичных рассуждений, основанных на Законах, заставляет сверхрационального робота совершить нечто неожиданное — и не обязательно в хорошем смысле. Читатель может задаться вопросом, можно ли “отладить” проблему, просто добавив еще один Закон или закрыв лазейку — то, что сам Азимов предпринимал несколько раз за эти годы.
Азимов предполагал, что интеллектуальные роботы будут обладать психическими процессами, подобными GOFAI, переходящими от необработанных стимулов к внутренним состояниям и моторным выходам, используя логику Лейбница - calculemus!- к которым эти законы могут быть добавлены в качестве формальных ограничений. Это сделало бы таких роботов явно отличными от нас; мы не думаем так логично, как показывает здравый смысл и многие эксперименты в области психологии и поведенческой экономики. Неожиданные результаты не будут, таким образом, ошибкой робота, так же как неожиданный результат программы не является ошибкой компьютера.
Воображаемые роботы Азимова были полностью “рациональными”; их можно даже назвать этически “совершенными”. Проблемы могут возникнуть только из-за ошибок в самих правилах, которые, будучи человеческого происхождения, могут быть неполными или правильными, или, возможно, из-за необходимости взаимодействия роботов с людьми, чьи собственные несовершенства и иррациональность могут привести к порочным последствиям или противоречиям.
Таким образом, по сути, законы Азимова - это не что иное, как теоремы, законы физики или компьютерный код. Они не привязаны к устойчивым понятиям и не определяют математические отношения, потому что естественный язык - это не математика; словами нельзя манипулировать, как алгебраическими переменными, или запускать, как компьютерный код. Скорее, язык предлагает краткий способ выразить политику, требующую человеческого суждения для интерпретации и применения. Для калибровки такого суждения, как правило, требуется прецедентное право: отработанные примеры, которые проясняют цель и сферу применения языка, которые могут быть предметом обсуждения, варьироваться в зависимости от культуры и развиваться с течением времени.
Итак, хотя у нас нет другого выбора, кроме как написать этические правила на естественном языке — идея, имеющая поверхностное сходство с Законами Азимова, — мы должны иметь в виду, что программирование - это неправильная парадигма. Скорее, прикладная этика опирается на понимание языка, которое, в свою очередь, опирается на обучение, обобщение и суждение.
Человеческое суждение, меняющееся со временем, является лучшей и единственной доступной основной правдой - обязательно громкой, культурно обусловленной, всегда несовершенной и никогда не бывает полностью справедливой, но вряд ли чуждой или непостижимой.