Какие внутренние ограничения мы можем наложить на дизайн ИИ (искусственного интеллекта) или ИИ+? Во-первых, мы могли бы попытаться ограничить их когнитивные возможности в некоторых отношениях, чтобы они могли справляться с определенными задачами, для решения которых нам нужна помощь, но чтобы им не хватало определенных характеристик, таких как автономия. Например, мы можем создать искусственный интеллект, который будет отвечать на наши вопросы, или который будет выполнять определенные задачи, но у которого нет собственных целей. На первый взгляд, такой ИИ может представлять меньше рисков, чем автономный ИИ, по крайней мере, если он находится в руках ответственного контролера. Что еще более важно, такой подход, вероятно, будет нестабильным. В конце концов, вполне вероятно, что будут существовать УИ с когнитивными способностями, похожими на наши, хотя бы эмуляцией мозга. Как только потенциал этих учреждений будет укреплен, тогда нам придется решать вопросы. Аналогичным образом, я сде