Найти в Дзене
OVERCLOCKERS.RU

Применение AI в робототехнике способно привести к созданию принципиально новых видов оружия

В последние несколько лет интерес к внедрению роботов в системы безопасности, полицейские и военные операции непрерывно растет. Это направление активно изучается не только в Северной Америке, но и в Европе и Азии. Об этом рассказывает Марк Цагас, преподаватель права, борьбы с киберпреступностью и этики искусственного интеллекта в Университете Восточного Лондона. Фото: Военно-воздушные силы США через The Conversation / Airman 1st Class Isaiah Pedrazzini Интеграцию роботов в эти сферы многие пытаются сравнить с использованием собак в полицейских и военных операциях в XX веке. Собаки выполняли функции охранников, дозорных, перевозили почту, использовались для обнаружения мин и т.д. Утилитарные роботы, созданные для оказания помощи человеку, имитируют наших четвероногих друзей не только по форме, но и по функционалу. Оснащенные техникой для наблюдения и участвующие в цепочках поставок техники, боеприпасов и т.д., они могут существенно снизить риски серьезных поражений личного состава войск
Оглавление

В последние несколько лет интерес к внедрению роботов в системы безопасности, полицейские и военные операции непрерывно растет. Это направление активно изучается не только в Северной Америке, но и в Европе и Азии. Об этом рассказывает Марк Цагас, преподаватель права, борьбы с киберпреступностью и этики искусственного интеллекта в Университете Восточного Лондона.

Фото: Военно-воздушные силы США через The Conversation / Airman 1st Class Isaiah Pedrazzini

Интеграцию роботов в эти сферы многие пытаются сравнить с использованием собак в полицейских и военных операциях в XX веке. Собаки выполняли функции охранников, дозорных, перевозили почту, использовались для обнаружения мин и т.д.

Утилитарные роботы, созданные для оказания помощи человеку, имитируют наших четвероногих друзей не только по форме, но и по функционалу. Оснащенные техникой для наблюдения и участвующие в цепочках поставок техники, боеприпасов и т.д., они могут существенно снизить риски серьезных поражений личного состава войск на поле боя. Однако утилитарные роботы приобретут совершенно иной смысл, если на них будут установлены системы вооружения. По сути, они станут наземными вариантами беспилотного летательного аппарата MQ-9 Predator, используемого в настоящее время американскими военными.

В 2021 году компания Ghost Robotics продемонстрировала одного из своих четвероногих роботов под названием Q-UGV, вооруженного беспилотной винтовкой Special Purpose Unmanned Rifle 4. В ходе демонстрации обсуждалась тема оснащения утилитарных роботов оружием.

Необходимо отметить, что каждый элемент данной комбинации оружия и робототехники работает по-своему. Если сам робот является полуавтономным и может управляться дистанционно, то установленное на нем оружие не имеет автономных возможностей и полностью контролируется оператором.

В сентябре 2023 года морские пехотинцы США провели испытания концептуального четырехногого робота. В ходе испытаний оценивались его возможности по "захвату и преследованию целей". Для этого было использовано легкое противотанковое оружие M72. Это событие вновь вызвало дискуссию об этике применения автоматических и полуавтоматических систем вооружений в боевых действиях.

В кадре робот-экскурсовод, созданный на основе Spot. Специалисты интегрировали в систему Chat GPT и несколько других моделей ИИ в качестве доказательства эффективности применения основополагающих моделей в робототехнике

Внедрение в любую из таких платформ систем обнаружения угроз на основе искусственного интеллекта и возможностей "наведения" на цель не представляет большого труда. Более того, подобные системы уже доступны на открытом рынке. В 2022 году десятки ведущих робототехнических компаний подписали открытое письмо. Оно было опубликовано на сайте компании Boston Dynamics, создавшей собакоподобного робота Spot. В своем послании компании обязались не превращать в оружие своих коммерческих роботов.

Однако в письме также говорится, что компании не возражают против "существующих технологий, которые используются государствами и их государственными органами для самозащиты и соблюдения законов". В связи с этим следует рассмотреть вопрос, а действительно ли так необходимо использовать ИИ в качестве оружия. Системы вооружений с интеллектуальными технологиями, интегрированными в робототехнику, сегодня уже активно используются в боевых действиях.

 📷
📷

Технологии искусственного интеллекта как никогда прежде близки к прохождению теста Тьюринга на разумность

В этом месяце компания Boston Dynamics опубликовала видеоролик, в котором показано, как компания подключила к своему роботу Spot чат-бот ChatGPT с искусственным интеллектом. На видео показано, как машина отвечает на вопросы и поддерживает беседу с одним из инженеров компании. При этом робот "использовал" различные "личности" - английского дворецкого, археолога 20-х годов прошлого века, девочки-подростка и т.д.

Понято, что отвечает чатбот с искусственным интеллектом, но слова и предложения произносит Spot. Многие считают, что это весьма любопытный и, возможно, даже положительный опыт для отрасли.

Но если Boston Dynamics придерживается своего обещания не использовать своих роботов в качестве оружия, то другие компании могут быть настроены совершенно иначе. Кроме того, существует вероятность неправомерного использования таких роботов людьми или организациями, не руководствующимися принципами морали.

В открытом письме говорится следующее: "По возможности мы будем пристально изучать целевое применение роботов нашими пользователями, чтобы избежать их возможного превращения в оружие".

Американские морские пехотинцы испытывают противотанковое оружие, установленное на собаке-роботе

Свое мнение по поводу внедрения искусственного интеллекта в вооруженные силы Великобритания уже сформулировала в своей стратегии Defense Artificial Intelligence Strategy, опубликованной в 2022 году. В документе говорится о намерении оперативно интегрировать искусственный интеллект в системы Министерства обороны с целью укрепления безопасности и модернизации вооруженных сил.

Следует отметить, что в приложении к стратегическому документу специально оговариваются потенциальные проблемы, связанные с летальными автономными системами вооружений. Например, для "обучения" систем искусственного интеллекта или их дальнейшей модернизации используются данные из реального мира. В случае ChatGPT данные собираются из Интернета.

Помогая системам ИИ стать более полезными, вся эта информация из "реального мира" может также передавать самой программе ошибочные суждения и стереотипы. Результатом такого подхода может стать алгоритмическая предвзятость (то есть предпочтение ИИ одной группе или варианту действий перед другой) или неадекватная и непропорциональная реакция ИИ. Таким образом, необходимо тщательно анализировать обучающие модели систем вооружений исходя из этических принципов ведения войны.

В этом году Палата лордов учредила специальный комитет по использованию искусственного интеллекта в оружейных системах. Перед ним поставлена задача - выяснить, как вооруженные силы могут воспользоваться достижениями технологического прогресса, минимизируя риски за счет применения технических, правовых и этических механизмов защиты. Также планируется изучить адекватность политики Великобритании и международных стратегий.

 📷
📷

Военные специалисты НОАК построили 255-кубитный квантовый компьютер, продемонстрировав его невероятную мощь

Роботы-собаки с оружием пока не применятся в боевых действиях. Но есть все предпосылки для того, чтобы этот сценарий стал реальностью, если все оставить как есть. Стремительные темпы развития технологий искусственного интеллекта и робототехники уже породили "идеальный шторм", который может превратиться в новое сверхмощное оружие.

Недавний саммит по безопасности искусственного интеллекта в Блетчли-Парке (предместье Лондона) дал положительный результат для регулирования ИИ как в Великобритании, так и на международной арене. Однако наметился философский раскол между задачами саммита и целями комитета AI in Weapon Systems.

Недавний саммит по безопасности искусственного интеллекта в Блетчли-Парке (предместье Лондона) дал положительный результат для регулирования ИИ как в Великобритании, так и на международной арене. Однако наметился философский раскол между задачами саммита и целями комитета по искусственному интеллекту в оружейных системах (AI in Weapon Systems Сommittee).

Саммит был ориентирован на определение понятия ИИ, оценку его возможностей и ограничений, а также на достижение всеобщего консенсуса в отношении этичности его использования. Для этого была принята декларация, во многом похожая на открытое письмо Boston Dynamics.

-4

На фото испытания робота-собаки, на спине которого установлено противотанковое ружье

Постоянное употребление термина "безопасность" на саммите в Блетчли и в декларации говорит исключительно о добровольных обязательствах. А премьер-министр Великобритании Риши Сунак заявил, что странам вообще не следует торопиться с регулированием ИИ. Однако на фоне энтузиазма некоторых экспертов касательно интеграции технологий ИИ в оружейные платформы “благородство” подобных заявлений заметно ослабевает.

📃 Читайте далее на сайте