Искусственный интеллект (AI) готов играть все большую роль в военных системах. Существует неотложная возможность и необходимость для граждан, политиков и лидеров различать приемлемое и неприемлемое использование ИИ.
В этом свете мы, нижеподписавшиеся, согласны с тем, что решение о принятии действий в человеческой жизни никогда не должно быть передано машине. В этой позиции есть нравственная составляющая, что мы не должны позволять машинам принимать жизненные решения, для которых виновны другие (или никто).
Существует также мощный прагматичный аргумент: смертоносное автономное оружие, выбор и привлечение целей без вмешательства человека, будет опасно дестабилизироваться для каждой страны и отдельного человека. Тысячи исследователей ИИ согласны с тем, что, устраняя риск, значимость и трудность жизни людей, смертоносное автономное оружие может стать мощными инструментами насилия и угнетения, особенно когда они связаны с системами наблюдения и данных.
Более того, смертоносное автономное оружие обладает характеристиками, совершенно отличными от ядерного, химического и биологического оружия, и односторонние действия одной группы могут слишком легко спровоцировать гонку вооружений, в которой международное сообщество не будет располагать техническими инструментами и системами глобального управления. Стигматизация и предотвращение такой гонки вооружений должны быть первоочередной задачей для национальной и глобальной безопасности.
Мы, нижеподписавшиеся, призываем правительства и правительственные лидеров создать будущее с сильными международными нормами, положениями и законами против летального автономного оружия. В настоящее время они отсутствуют, мы предпочитаем придерживаться высоких стандартов: мы не будем участвовать и не поддерживаем разработку, производство, торговлю или использование смертоносного автономного оружия. Мы просим, чтобы технологические компании и организации, а также руководители, политики и другие лица присоединились к нам в этом обещании.