ИИ-технологии развиваются стремительными темпами. Совсем скоро появится такой ИИ, который можно будет сравнить с мышью или собакой по умственным способностям. А значит, что настало время поразмыслить о том, нужна ли этическая защита этой технологии.
Искусственный Интеллект испытывает боль?
Не стоит думать о том, чтобы выдать ИИ-технологиям такие же этические права, как и человеку. До этого ещё далеко. А вот задумываться о том, стоит ли выдавать ИИ-технологиям такие же права, как у животных — нужно уже сейчас.
Сейчас учёные обязаны следовать некоторым этическим правилам, применяемым по отношению к исследованиям, проводимым над животными. Главное — это избежать необязательных смертей и страданий животных. Когда исследуются стволовые клетки людей — контролирующие органы отслеживают буквально каждый шаг исследователей. Исследования на животных находятся под контролем, однако, исследования ИИ-технологий могут повлечь те же этические риски. Но никто даже не рассматривает такую возможность.
Вы могли предположить, что ИИ-системы не заслуживают подобной этической защиты по причине того, что они не обладают никаким сознанием. То есть эти технологии не имеют подлинный поток опыта и не способны испытывать эмоции. Да, это абсолютно верно. Но что если предположить, что ИИ-системы не могут выражать свои чувства и сообщать о происходящем внутри них.
Вот здесь возникает дилемма и трудности, так как наука ещё не может определить наличие сознания у машин. Некоторые считают, что хорошо организованная обработка данных и есть сознание. Вероятно, что человечество уже приблизилось к созданию таких систем. Другие же уверены, что сознание — это комплекс биологических функций.
Оценить верность подходов довольно сложно. Но если более либеральные взгляды окажутся в приоритете, то мы совсем скоро создадим огромное количество различных сознательных ИИ-систем, заслуживающих этических прав. В таком случае возникнет нравственный риск.
Часто обсуждаются те риски, что ИИ-технологии могут нанести людям, но не то, что люди могут навредить ИИ-системам из-за неправильного использования.
Кто-то может подумать, что всё это бред. Но мы должны относиться к этическим вопросам со всей серьёзностью. Такие исследования должны подвергаться этическим проверкам, как в случае с животными или нервными тканями человека.
Меры защиты в исследованиях над последними начали применять только после выявления серьёзных этических нарушений. Возможно, что в этот раз выйдет сработать «на опережение» и создать надзорные органы, которые смогут оценить передовые исследования в сфере ИИ-технологий. Наблюдать за исследованиями должны учёные, дизайнеры ИИ, специалисты по когнитивным наукам и просто заинтересованные персоны.
Нужно подготовиться к тому, что человечество скоро создаст ИИ-технологию, обладающую сознательным опытом и заслуживающую этического рассмотрения.
Комментарий Агентства Искусственного Интеллекта: люди всё чаще задаются этическими вопросами. Если ИИ-технологии действительно обретут сознание, то разработать свод этических правил для них — станет необходимостью. И мы в Агентстве уделяем этим вопросам довольно много времени и усилий.
Источник: Hi-News.