Найти тему

Старый добрый искусственный интеллект.

Словосочетание “искусственный интеллект” было придумано организаторами Дартмутского летнего исследовательского проекта по искусственному интеллекту в 1956 году. Они считали, что “каждый аспект обучения или любой другой особенности интеллекта в принципе может быть описан настолько точно, что можно создать машину для его имитации”, и стремились дать машинам возможность “использовать язык, формировать абстракции и концепции, решать проблемы, которые в настоящее время зарезервированы для людей, усовершенствуйте себя”.

Первопроходец кибернетики Норберт Винер с роботом Паломилла, 1949 год.
Первопроходец кибернетики Норберт Винер с роботом Паломилла, 1949 год.

В то время как нейронные сети играли определенную роль в их мышлении, дартмутские исследователи изобрели термин “искусственный интеллект” отчасти для того, чтобы дистанцироваться от кибернетики, существующего подхода к созданию машин, которые могли “думать”, используя непрерывные значения для формирования прогнозирующих моделей их окружения.

Несмотря на свои взлеты и падения, термин “ИИ”, похоже, останется здесь, в то время как “кибернетика” канула в безвестность. По иронии судьбы, самые мощные системы искусственного интеллекта сегодня во многом придерживаются кибернетических традиций: они используют виртуальные “нейроны” с непрерывными весами и активациями для изучения функций, которые создают прогнозирующие модели на основе обучающих данных.

Законы робототехники

Рассказы писателя-фантаста Айзека Азимова "Я, робот" иллюстрируют, как нереалистичные амбиции GOFAI сформировали наше представление об этике ИИ. Азимов представил будущее, в котором все роботы будут запрограммированы на набор стандартных “законов”, регулирующих их поведение:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
  2. Робот должен подчиняться приказам, отдаваемым ему людьми, за исключением случаев, когда такие приказы противоречат Первому закону.
  3. Робот должен защищать свое собственное существование до тех пор, пока такая защита не противоречит Первому или Второму закону.

Конечно, в рассказах Азимова, как и во всей научной фантастике, возникают проблемы — иначе не было бы сюжета! Проблема, как правило, связана с законом. Некоторая комбинация необычной ситуации и, по-видимому, здравых, но нелогичных рассуждений, основанных на Законах, заставляет сверхрационального робота совершить нечто неожиданное — и не обязательно в хорошем смысле. Читатель может задаться вопросом, можно ли “отладить” проблему, просто добавив еще один Закон или закрыв лазейку — то, что сам Азимов предпринимал несколько раз за эти годы.

-2

Азимов предполагал, что интеллектуальные роботы будут обладать психическими процессами, подобными GOFAI, переходящими от необработанных стимулов к внутренним состояниям и моторным выходам, используя логику Лейбница - calculemus!- к которым эти законы могут быть добавлены в качестве формальных ограничений. Это сделало бы таких роботов явно отличными от нас; мы не думаем так логично, как показывает здравый смысл и многие эксперименты в области психологии и поведенческой экономики. Неожиданные результаты не будут, таким образом, ошибкой робота, так же как неожиданный результат программы не является ошибкой компьютера.


Воображаемые роботы Азимова были полностью “рациональными”; их можно даже назвать этически “совершенными”. Проблемы могут возникнуть только из-за ошибок в самих правилах, которые, будучи человеческого происхождения, могут быть неполными или правильными, или, возможно, из-за необходимости взаимодействия роботов с людьми, чьи собственные несовершенства и иррациональность могут привести к порочным последствиям или противоречиям.

-3

Таким образом, по сути, законы Азимова - это не что иное, как теоремы, законы физики или компьютерный код. Они не привязаны к устойчивым понятиям и не определяют математические отношения, потому что естественный язык - это не математика; словами нельзя манипулировать, как алгебраическими переменными, или запускать, как компьютерный код. Скорее, язык предлагает краткий способ выразить политику, требующую человеческого суждения для интерпретации и применения. Для калибровки такого суждения, как правило, требуется прецедентное право: отработанные примеры, которые проясняют цель и сферу применения языка, которые могут быть предметом обсуждения, варьироваться в зависимости от культуры и развиваться с течением времени.

Итак, хотя у нас нет другого выбора, кроме как написать этические правила на естественном языке — идея, имеющая поверхностное сходство с Законами Азимова, — мы должны иметь в виду, что программирование - это неправильная парадигма. Скорее, прикладная этика опирается на понимание языка, которое, в свою очередь, опирается на обучение, обобщение и суждение.

Человеческое суждение, меняющееся со временем, является лучшей и единственной доступной основной правдой - обязательно громкой, культурно обусловленной, всегда несовершенной и никогда не бывает полностью справедливой, но вряд ли чуждой или непостижимой.