Найти тему
ТехноВзгляд

Как мы можем доверять искусственному интеллекту, если не знаем, как он работает?

Оглавление

Доверие строится на социальных нормах и базовой предсказуемости. ИИ, как правило, не учитывает ни того, ни другого.

Среди нас есть инопланетные разумы. Не маленькие зеленые человечки из научной фантастики, а инопланетные разумы, которые работают с системой распознавания лиц в вашем смартфоне, определяют вашу кредитоспособность, пишут стихи и компьютерные коды. Эти инопланетные разумы - системы искусственного интеллекта, те самые "призраки в машине", с которыми вы сталкиваетесь каждый день.

Но у систем искусственного интеллекта есть существенное ограничение: Многие из их внутренних механизмов непроницаемы, что делает их принципиально необъяснимыми и непредсказуемыми. Кроме того, создание систем ИИ, которые ведут себя так, как ожидают люди, представляет собой серьезную проблему.

Если вы принципиально не понимаете такой непредсказуемой вещи, как искусственный интеллект, как вы можете ему доверять?

ПОЧЕМУ АИ НЕПРЕДСКАЗУЕМА?

Доверие основано на предсказуемости. Оно зависит от вашей способности предвидеть поведение других людей. Если вы доверяете кому-то, а он поступает не так, как вы ожидаете, то ваше восприятие его благонадежности снижается.

Многие системы ИИ построены на основе нейронных сетей глубокого обучения, которые в некотором роде имитируют человеческий мозг. Эти сети содержат взаимосвязанные "нейроны" с переменными или "параметрами", которые влияют на силу связей между нейронами. Когда наивной сети предъявляются обучающие данные, она "учится" классифицировать их, изменяя эти параметры. Таким образом, система искусственного интеллекта учится классифицировать данные, с которыми она раньше не сталкивалась. Она не запоминает, что представляет собой каждая точка данных, а предсказывает, чем может быть та или иная точка.

Многие из наиболее мощных систем ИИ содержат триллионы параметров. Поэтому причины, по которым системы ИИ принимают те или иные решения, часто остаются непрозрачными. Это и есть проблема объяснимости ИИ - непроницаемый "черный ящик" принятия решений ИИ.

Рассмотрим вариант "проблемы троллейбуса". Представьте, что вы - пассажир самодвижущегося автомобиля, управляемого ИИ. На дорогу выбегает маленький ребенок, и ИИ должен решить: сбить его или свернуть в сторону и врезаться в автомобиль, что может привести к травмам его пассажиров. Человеку было бы трудно сделать такой выбор, но у него есть преимущество - он может объяснить свое решение. Его рационализация - сформированная этическими нормами, восприятием других людей и ожидаемым поведением - поддерживает доверие.

В отличие от этого, ИИ не может рационально обосновать свои решения. Вы не можете заглянуть под капот самодвижущегося автомобиля и посмотреть на триллионы его параметров, чтобы объяснить, почему он принял именно такое решение. ИИ не справляется с прогностическим требованием доверия.

ПОВЕДЕНИЕ И ОЖИДАНИЯ ЧЕЛОВЕКА

Доверие зависит не только от предсказуемости, но и от нормативных или этических мотивов. Как правило, вы ожидаете, что люди будут действовать не только так, как вы предполагаете, но и так, как они должны действовать. Человеческие ценности формируются под влиянием общего опыта, а моральные рассуждения - это динамический процесс, формирующийся под влиянием этических норм и восприятия других людей.

В отличие от человека, ИИ не корректирует свое поведение в зависимости от того, как его воспринимают другие, и не придерживается этических норм. Внутреннее представление ИИ о мире в значительной степени статично и задается обучающими данными. Процесс принятия решений основывается на неизменной модели мира, не подверженной влиянию динамичных и тонких социальных взаимодействий, постоянно влияющих на поведение человека. Исследователи работают над программированием ИИ с учетом этических норм, но это оказывается непростой задачей.

Сценарий с самодвижущимся автомобилем иллюстрирует эту проблему. Как сделать так, чтобы искусственный интеллект автомобиля принимал решения, соответствующие ожиданиям человека? Например, автомобиль может решить, что оптимальным вариантом действий является наезд на ребенка, чего большинство водителей-людей инстинктивно избегают. Эта проблема - проблема согласования действий ИИ, и она является еще одним источником неопределенности, возводящим барьеры для доверия.

КРИТИЧЕСКИЕ СИСТЕМЫ И ДОВЕРИЕ К ИИ

Одним из способов снижения неопределенности и повышения доверия является обеспечение участия людей в принятии решений системами ИИ. Именно такого подхода придерживается Министерство обороны США, которое требует, чтобы при принятии всех решений ИИ человек был либо в курсе, либо в курсе. В цикле" означает, что система ИИ дает рекомендации, но для инициирования действий требуется участие человека. В цикле" означает, что, хотя система ИИ может самостоятельно инициировать действие, человек может прервать или изменить его.

Хотя вовлечение людей в процесс - это отличный первый шаг, я не уверен, что он будет устойчивым в долгосрочной перспективе. Поскольку компании и правительства продолжают внедрять ИИ, будущее, скорее всего, будет включать в себя вложенные системы ИИ, где быстрое принятие решений ограничивает возможности вмешательства человека. Важно решить проблемы объяснимости и согласованности до того, как будет достигнута критическая точка, когда вмешательство человека станет невозможным. В этот момент не останется иного выбора, кроме как довериться ИИ.

Избежать этого порога особенно важно, поскольку ИИ все чаще интегрируется в критически важные системы, такие как электросети, Интернет и военные системы. В критически важных системах доверие имеет первостепенное значение, а нежелательное поведение может привести к смертельно опасным последствиям. По мере усложнения интеграции ИИ становится все более важным решение проблем, ограничивающих надежность.

СМОГУТ ЛИ ЛЮДИ КОГДА-НИБУДЬ ДОВЕРЯТЬ АИ?

ИИ - это инопланетянин - разумная система, о которой люди мало что понимают. Люди в значительной степени предсказуемы по отношению к другим людям, поскольку у нас один и тот же человеческий опыт, но это не распространяется на искусственный интеллект, хотя люди его и создали.

Если доверие к человеку имеет изначально предсказуемые и нормативные элементы, то искусственный интеллект в корне лишен тех качеств, которые делают его достойным доверия. Дальнейшие исследования в этой области, как мы надеемся, прольют свет на этот вопрос и позволят гарантировать, что системы искусственного интеллекта будущего будут достойны нашего доверия.