Одно из основных отличий искусственного интеллекта от других технологий — его способность к самообучению. С одной стороны, это открывает огромные возможности, с другой — несёт в себе опасность. Ведь, проанализировав данные, машина может прийти к выводу, что алгоритм работы необходимо изменить, и начнёт действовать в соответствии с новыми вводными. Хорошим примером может служить известная модель ситуации, когда беспилотному автомобилю в случае аварийной ситуации необходимо решить, чьё здоровье приоритетнее — пассажира или пешехода. Кто же будет нести ответственность за его выбор? Ведь, по сути, решение в подобной ситуации принимает сам автомобиль, проанализировав ситуацию. К кому может обратиться пострадавший за возмещением ущерба?
Футурологи единогласно предлагают не переносить ответственность за решения ИИ на сами технологии. В конечном итоге за них отвечают те, кто их создал. "Люди отвечают за все решения и все результаты", — подчёркивает Михаил Черномордиков. Также он обратил внимание на то, что нормы, связанные с развитием искусственного интеллекта, формируются уже сегодня: над этим совместно работают Microsoft, Google, Facebook, Apple и IBM. Человечеству предстоит выработать такие правила создания ИИ, чтобы этические вопросы решались максимально безопасным путём. Эксперты опасаются лишь одного — того, что и этические аспекты искусственного интеллекта останутся уделом IT-специалистов. "Мы нуждаемся в более широком, глубоком вовлечении представителей разных стран в разработку этих систем. ИТ-индустрия не должна диктовать ценности и моральные принципы технологического будущего", — считает Михаил Черномордиков.