Пентагон устанавливает «Этический кодекс ИИ» для «роботов-убийц», чтобы они не контролировались
Чтобы противостоять так называемой военной угрозе России и победить в следующей войне в эпоху науки и техники, Соединенные Штаты вложили огромные суммы денег в исследования и разработку оружия искусственного интеллекта. Согласно сообщению на сайте российского телевидения от 24 февраля, министерство обороны США объявило в тот же день, что оно готовится установить «руководящие принципы по этике ИИ» для своих «роботов-убийц», чтобы добиться вмешательства человека в условия полевых боев », чтобы у них была по крайней мере одна кнопка «выключение»".
«Робот-убийца», также известный как новое поколение полностью автоматического оружия, относится роботу типа Терминатор, который может быть автономен. Он может заменить военнослужащих на поле боя для выполнения опасных боевых задач и минимизации потерь среди солдат. Тем не менее, потенциальная опасность состоит в том, что «роботы-убийцы» могут быть не в состоянии правильно идентифицировать гражданских лиц и противников на поле битвы. Если при выборе целей не будет принято никакого человеческого решения, робот выйдет из-под контроля человека и сам примет решение о жизни или смерти, что приведет к большому числу жертв среди гражданского населения.
Министр обороны США Эспер заявил в заявлении от 24-го числа, что «технология искусственного интеллекта изменит поле битвы будущих войн, но это не изменит твердую приверженность американцев ответственному и законному поведению».
Согласно Пентагону, их будущие проекты по искусственному оружию будут «ответственными, справедливыми, отслеживаемыми, заслуживающими доверия» и «контролируемыми». Однако министерство обороны США не раскрыло, какие меры они предпримут для обеспечения реализации вышеуказанных принципов.
Фактически, с быстрым развитием науки и техники, разработка оружия искусственного интеллекта достигла знаменательных достижений: например, сторожевой робот, разработанный Samsung Corps и используемый южнокорейскими военными, может не только без устали стоять в течение длительного времени, но и Автоматически выполнять задачи безопасности, обнаруживать необычные действия во время вооруженной обороны, противостоять злоумышленникам и стрелять по врагу с разрешения человека.
Тем не менее, беспокойство по поводу возможной потери контроля над оружием ИИ распространялось в международном сообществе. Мы должны знать, что еще во время войны в Ираке военные роботы, используемые американскими военными, имели прецедент, когда они внезапно потеряли контроль и открыли огонь по своим. Данные показывают, что во время испытания в 2007 году боевой робот США, который еще не был официально введен в эксплуатацию, внезапно напал на солдата США и не остановился, пока его не перевернула ракета.
Кроме того, некоторые аналитики считают, что в дополнение к временным ошибкам, которые наносят вред самим себе и гражданскому населению, еще одной опасностью «роботов-убийц» является то, что разработчики программного обеспечения, отвечающие за исследования и разработки, могут спокойно перепрограммировать их в соответствии с тенденцией интересов, заставляя их стать кровожадными монстрами, убивающими невинных людей. В скором времени сюжетам из научно-фантастических фильмах суждено сбыться.