20–22 октября в Пекине состоялся Сяншаньский форум по проблемам региональной безопасности, в котором приняли участие военные, представители силовых структур и эксперты из стран Азиатско-Тихоокеанского региона.
В дискуссиях, посвященных военному применению искусственного интеллекта, эксперты выразили мнение, что использование ИИ в военных целях повышает вероятность вооруженного конфликта и увеличивает технологический разрыв между странами.
Китай, Россия, США и другие страны конкурируют за использование ИИ во всех областях вооруженных сил, включая анализ разведывательных данных, принятие решений, автономные машины, логистику и новые виды оружия.
Яо Юньчжу, директор Центра оборонных отношений между Китаем и Америкой при Академии военных наук НОАК, сказал, что, хотя некоторые аспекты технологии искусственного интеллекта могут снизить вероятность человеческих жертв в бою, они также делают военные конфликты более вероятными.
Лора Ланнан Саалман, старший научный сотрудник программы EastWest Institute по глобальному сотрудничеству в киберпространстве, повторила опасения Яо Юньчжу, заявив, что гонка за развитием ИИ в области оружия может дестабилизировать мировой порядок.
Чэнь Диндин, эксперт по международным отношениям в Университете Цзинаня, сказал, что стремление к разработке ИИ расширяет технологический разрыв между могущественными странами и остальным миром.
По мнению экспертов, в такой конкурентной среде крупнейшим военным державам мира необходимо проявлять сдержанность.
Полковник Чжао Сяочжуо, старший научный сотрудник Академии военных наук НОАК, сказал, что миру еще предстоит осознать негативные последствия применения ИИ-оружия. «ИИ тесно связан с нашей повседневной жизнью, и нам легко пренебречь его потенциальным вредом», - сказал он. «Международному сообществу нужно время, чтобы лучше понять влияние ИИ на военные столкновения и международное право».
По словам Чжао, мировое сообщество должно рассмотреть вопрос об установлении правил применения ИИ.
Эксперты считают, что должны быть области, которые «недоступны» искусственному интеллекту. Например, ИИ не должен быть частью процесса принятия решений об использовании оружия массового уничтожения.