Добавить в корзинуПозвонить
Найти в Дзене

Использование искусственного интеллекта в военных операциях: этические и технологические вызовы

Израиль активно применяет коммерческие модели искусственного интеллекта (ИИ), разработанные американскими технологическими гигантами, такими как Microsoft и OpenAI, в своих военных операциях. Это вызывает серьезные опасения по поводу роли технологий в принятии решений, которые могут определять, кто выживет, а кто погибнет. В частности, использование ИИ для идентификации целей в Газе и Ливане привело к резкому увеличению числа погибших, включая мирных жителей, что ставит под вопрос этичность и законность таких технологий. Американские компании, включая Microsoft, OpenAI, Google и Amazon, предоставляют Израилю облачные вычисления, модели ИИ и другие технологии, которые используются для анализа разведданных, перехвата коммуникаций и идентификации целей. После атаки ХАМАС 7 октября 2023 года, в результате которой погибло около 1200 человек, использование этих технологий резко возросло. Например, объем данных, хранящихся на серверах Microsoft для израильских военных, удвоился и превысил 13,

Израиль активно применяет коммерческие модели искусственного интеллекта (ИИ), разработанные американскими технологическими гигантами, такими как Microsoft и OpenAI, в своих военных операциях. Это вызывает серьезные опасения по поводу роли технологий в принятии решений, которые могут определять, кто выживет, а кто погибнет. В частности, использование ИИ для идентификации целей в Газе и Ливане привело к резкому увеличению числа погибших, включая мирных жителей, что ставит под вопрос этичность и законность таких технологий.

Американские компании, включая Microsoft, OpenAI, Google и Amazon, предоставляют Израилю облачные вычисления, модели ИИ и другие технологии, которые используются для анализа разведданных, перехвата коммуникаций и идентификации целей. После атаки ХАМАС 7 октября 2023 года, в результате которой погибло около 1200 человек, использование этих технологий резко возросло. Например, объем данных, хранящихся на серверах Microsoft для израильских военных, удвоился и превысил 13,6 петабайт.

Microsoft, крупнейший инвестор OpenAI, предоставляет доступ к передовым моделям ИИ через свою облачную платформу Azure. Хотя OpenAI заявляет, что её продукты не предназначены для военного использования, компания изменила свои условия использования, разрешив применение технологий в «сценариях национальной безопасности». Это открывает двери для их использования в военных целях.

Израильские военные используют ИИ для анализа огромных массивов данных, включая перехваченные телефонные разговоры, текстовые сообщения и данные слежки. Модели ИИ помогают идентифицировать подозрительные высказывания, поведение и передвижения, что позволяет быстрее находить цели. Однако эти системы не лишены ошибок. Например, неправильный перевод с арабского или ошибочные данные могут привести к неправомерной идентификации целей.

Один из офицеров израильской разведки, пожелавший остаться анонимным, рассказал, что ИИ иногда ошибочно помечает мирных жителей как боевиков. В одном случае система идентифицировала список старшеклассников как потенциальных боевиков из-за ошибки в данных. Если бы офицер не заметил эту ошибку, эти люди могли бы стать жертвами авиаудара.

-2

Использование ИИ в военных операциях поднимает серьезные этические и правовые вопросы. Хайди Хлааф, главный научный сотрудник по ИИ в Институте AI Now, отмечает, что применение коммерческих моделей ИИ в боевых действиях создает прецедент для будущих войн, где технологии могут играть ключевую роль в принятии решений о жизни и смерти.

Израильские военные утверждают, что все цели, идентифицированные с помощью ИИ, проверяются людьми, и что они соблюдают международное право. Однако эксперты сомневаются в эффективности такого контроля, особенно в условиях высокой оперативной нагрузки и давления на военных.

Ошибки ИИ могут иметь катастрофические последствия. В ноябре 2023 года в результате авиаудара погибли три девочки и их бабушка, которые ехали в автомобиле вместе с журналистом. Семья утверждает, что израильские беспилотники должны были увидеть, что в машине находятся дети. Израильские военные заявили, что это была ошибка, но отказались уточнить, использовался ли ИИ для идентификации цели.

Использование ИИ в военных целях становится все более распространенным. Израильские военные уже разработали такие инструменты, как Gospel и Lavender, которые используют машинное обучение для сортировки данных и предложения целей. Эти технологии позволяют военным одобрять сотни авиаударов в неделю, что значительно больше, чем в предыдущих конфликтах.

Однако чрезмерная зависимость от ИИ может усилить существующие предубеждения и привести к ошибкам. Таль Мимран, бывший офицер израильской армии, отмечает, что ИИ может укрепить «предвзятость подтверждения», когда люди склонны доверять машине, даже если она ошибается.

Использование технологий в военных целях вызывает сопротивление среди сотрудников американских компаний. В октябре 2023 года Microsoft уволила двух сотрудников за организацию акции в поддержку палестинцев. Google также уволила около 50 сотрудников за протесты против войны в Газе. Многие работники выражают обеспокоенность тем, что их технологии используются для причинения вреда мирным жителям.

Использование ИИ в военных операциях — это не только технологический прорыв, но и серьезный этический вызов. Хотя технологии могут повысить эффективность и точность военных операций, они также несут риски ошибок и неправомерного применения. Будущее автоматизированной войны зависит от того, как общества и правительства будут регулировать использование ИИ, чтобы минимизировать вред и обеспечить соблюдение международного права.

Источник: https://apnews.com/article/israel-palestinians-ai-technology-737bc17af7b03e98c29cec4e15d0f108

Больше интересного – на медиапортале https://www.cta.ru/