Найти в Дзене
ИНОСМИ

«Машины для убийств»: США поплатятся за это головой, если не одумаются

Frankfurter Allgemeine Zeitung | Германия В военных конфликтах все чаще используются системы ИИ — от обработки разведданных до наведения дронов, пишет FAZ. Эксперты предупреждают: гонка технологий может вытеснить человека из процесса принятия решений и привести к полной потере контроля над оружием. Петр Хеллер (Piotr Heller) В Иране и на Украине искусственный интеллект проникает в военную "цепочку уничтожения" и сокращает время между обнаружением и уничтожением. Гонка за скоростью угрожает вытеснить человека из процесса принятия решений. ИноСМИ теперь в MAX! Подписывайтесь на главное международное >>> На прошлой неделе представители правительств собрались в Женеве, чтобы разработать правила для войн будущего. Но их настигла война сегодняшнего дня. В Женеве собрались делегации 128 стран, подписавших Конвенцию ООН по конкретным видам обычного оружия 1980 года. В течение пяти дней они обсуждали правила для автономных смертоносных систем вооружения, которые могли бы расширить конвенцию. Не
Оглавление
   © REUTERS / Majid Asgaripour
© REUTERS / Majid Asgaripour

Frankfurter Allgemeine Zeitung | Германия

В военных конфликтах все чаще используются системы ИИ — от обработки разведданных до наведения дронов, пишет FAZ. Эксперты предупреждают: гонка технологий может вытеснить человека из процесса принятия решений и привести к полной потере контроля над оружием.

Петр Хеллер (Piotr Heller)

В Иране и на Украине искусственный интеллект проникает в военную "цепочку уничтожения" и сокращает время между обнаружением и уничтожением. Гонка за скоростью угрожает вытеснить человека из процесса принятия решений.

ИноСМИ теперь в MAX! Подписывайтесь на главное международное >>>

На прошлой неделе представители правительств собрались в Женеве, чтобы разработать правила для войн будущего. Но их настигла война сегодняшнего дня. В Женеве собрались делегации 128 стран, подписавших Конвенцию ООН по конкретным видам обычного оружия 1980 года. В течение пяти дней они обсуждали правила для автономных смертоносных систем вооружения, которые могли бы расширить конвенцию. Незадолго до завершения беседы выступил представитель Бельгии. Он заявил, что комитет не должен превращаться в дискуссионный клуб, который теряет связь с реальным миром. Ему удалось и описать этот мир: "Пока мы разговариваем, люди попадают под удар автономных систем, управляемых искусственным интеллектом".

"Убрать Трампа и отправить в тюрьму". Неожиданные подробности закулисья США

Он не уточнил, что именно имел в виду. Однако ясно, что искусственный интеллект проникает на поля сражений на Украине и в Иране на различных уровнях так называемой "цепочки поражения цели", которая предполагает определение цели, отправку подразделений, атаку и уничтожение. При этом технология может давать сбои. В Соединенных Штатах сейчас гадают, был ли удар по начальной школе на юге Ирана, в результате которого погибло по меньшей мере 168 человек, результатом решения, принятого с помощью ИИ. Это реальный мир. Он стал полигоном для испытания возможностей систем с искусственным интеллектом. Будущее войн во многом зависит от того, как эти системы покажут себя. Но также и от того, как далеко готовы зайти разработчики ИИ.

"Ускорение военного доминирования США в области искусственного интеллекта"

Этот вопрос в настоящее время обсуждается в споре между Вашингтоном и Сан-Франциско. С 2024 года американское правительство использует в военных целях языковую модель Claude, разработанную калифорнийской компанией Anthropic, которая занимается разработкой ИИ. Раскол произошел, когда в начале января министерство обороны опубликовало меморандум об "ускорении военного доминирования Америки в области искусственного интеллекта". Согласно этому меморандуму, в контрактах с компаниями, занятыми в сфере искусственного интеллекта, должно быть оговорено, что их продукты могут использоваться без ограничений для "любых законных целей".

Однако Anthropic провела две "красные линии": помимо широкомасштабной слежки внутри страны, это было управление полностью автономным оружием. Такой вид использования, по их мнению, недопустим. Правительство отреагировало серьезно, объявив Anthropic "угрозой для цепочки поставок" и заключив контракт с крупнейшим конкурентом: OpenAI, компанией, стоящей за разработкой ChatGPT.

Протесты перед штаб-квартирой OpenAI

Последствия не заставили себя ждать. В выходные дни Кейтлин Калиновски, руководитель отдела робототехники OpenAI, уволилась. "Смертоносная автономия без участия человека — это вопрос, который заслуживает большего внимания, чем ему уделяется", — написала она.

Более лаконично выразились демонстранты, которые написали на асфальте перед штаб-квартирой компании: "Нет роботам-убийцам".

Чтобы понять этот конфликт, стоит взглянуть на то, для чего используется ИИ на войне. Израиль и США не раскрывают подробностей о роли искусственного интеллекта в войне против Ирана, но исследования Washington Post позволяют получить некоторое представление. Согласно им, речь идет в первую очередь об анализе данных. По словам американского офицера, к настоящему моменту накоплено столько видеозаписей, спутниковых снимков, перехваченных телефонных разговоров и другой информации, что аналитики могут обработать лишь 4% от этого объема. Искусственный интеллект, используемый для обработки изображений, может идентифицировать цели, говорится далее. Так же, как обычные интернет-пользователи используют чат-ботов в качестве своего рода поисковой системы, военные теперь могут общаться со своими базами данных: "Найди все ракетные установки вблизи больниц" или "Уведомляй меня каждый раз, когда кто-то делает фотографию вблизи этой военной базы" — таковы возможные запросы.

Системы ИИ выбирают цели

Американские военные также могут использовать модели искусственного интеллекта для сортировки целей для атак по приоритету. Об этом сообщили на онлайн-платформе Futurism в ответ на вопрос, был ли искусственный интеллект задействован при бомбардировке школы. Пентагон не стал комментировать этот вопрос.

Хотя этот способ использования применяется в начале "цепочки убийств", на Украине он может непосредственно влиять на ход боевых действий. В августе 2025 года бывший глава Google Эрик Шмидт и Грег Грант из аналитического центра Center for a New American Security (Центр новой американской безопасности) в журнале Foreign Affairs описали программное обеспечение на основе ИИ, которое выбирает маршруты для операторов БПЛА, стабилизирует полеты, распознает цели и направляет дроны к ним. "Системы целеуказания на базе искусственного интеллекта каждую ночь обучаются на основе записей боевых действий, чтобы адаптироваться к мерам противодействия со стороны России, таким как маскировка или ложные цели".

Люди доверяют автономным решениям

Можно ли уже говорить об автономном оружии? Чтобы ответить на этот вопрос, необходимо более точно понять, как оно работает. Однако даже если на каждом уровне "цепочки убийств" человек должен утверждать предлагаемые ИИ решения, в конечном итоге все равно все сводится к чисто машинным решениям. Причина этого заключается в феномене "автоматического предубеждения": люди склонны отдавать предпочтение предложениям автоматических систем, даже если у них есть информация, которая говорит об обратном. Если человеку остается только подтвердить выбор цели, сделанный ИИ, то в случае неудачи не будет никакого лица, ответственного за принятие решения, а в лучшем случае будет лишь козел отпущения. Ведь искусственный интеллект не способен взять на себя ответственность, даже если он фактически принимает решение.

Однако системы искусственного интеллекта не подходят для принятия решений. "Сегодня они просто недостаточно надежны, чтобы управлять полностью автономными системами вооружения", — написал глава Anthropic Дарио Амодей в ответ на решение министерства обороны. Можно интерпретировать его слова цинично: проблема для Амодея заключается не в том, что ИИ убивает людей, а в том, что он делает это не очень хорошо. Но на самом деле вопрос о способностях ИИ занимает центральное место в дебатах об автономном оружии. Сторонники таких систем аргументируют это следующим образом: если ИИ выбирает цели в войне лучше и точнее, чем человек, и если при этом он лучше защищает гражданских и действует без эмоций, например, ненависти, то его использование становится моральным долгом. Однако компании, занимающиеся разработкой искусственного интеллекта, до сих пор не предоставили доказательств этих выдающихся способностей.

Черепаха, принятая за винтовку

Пример: в 2018 году на конференции по искусственному интеллекту в Швеции исследователи представили черепаху, напечатанную на 3D-принтере. На ее панцире была структура, которая заставляла обычные системы распознавания изображений принимать ее за винтовку. Искусственному интеллекту не хватает того, что мы называем здравым смыслом. Он не понимает реального мира, в котором должен принимать решения. Он может допускать абсурдные ошибки, как только возникает даже небольшое отклонение от нормы, которую он выучил. С 2018 года в этом плане ничего принципиально не изменилось. Если система не может отличить черепаху от винтовки, трудно доверять такой системе в условиях войны. Особенно если известно, что она склонна к эскалации. Эксперт по стратегии Кеннет Пейн из Королевского колледжа Лондона запустил обычные чат-боты на базе ИИ для моделирования геополитических кризисов. В 95% случаев искусственный интеллект эскалировал ситуацию до применения ядерного оружия. "Табу в отношении ядерного оружия, похоже, не так сильно действует на машины", — пишет Пейн в журнале New Scientist.

"Начались галлюцинации". ЕС взбунтовался против Урсулы фон дер Ляйен

Что это означает для будущего войны? С одной стороны, не следует недооценивать протесты в Сан-Франциско. В 2018 году Google уступил давлению своих сотрудников и вышел из Project Maven, в рамках которого разрабатывались системы искусственного интеллекта для Пентагона. Однако не следует переоценивать влияние отдельных компаний: Maven продолжил работу без Google, и сегодня эта система используется в Иране. Эксперты ООН в сентябре планируют продолжить обсуждение правил использования автономного оружия. Исход неясен: "Страны, в которых существуют программы по ведению боевых действий с помощью искусственного интеллекта, такие как Соединенные Штаты, Израиль и Китай, как правило, выступают против дополнительных мер регулирования", — заявил недавно в журнале Nature Крейг Джонс, профессор политической географии.

Более реалистичным кажется сценарий, который эксперт по ИИ Аджея Котра описала еще в 2023 году. В нем ИИ, возможно, не будет принимать лучшие решения, чем военные, но в любом случае будет принимать их быстрее. Возникает гонка вооружений, в которой ИИ необходимо использовать, чтобы не отставать от врага. Не будет даже времени на утверждение решения. Цена — полная потеря контроля над машиной.

Оригинал статьи

Еще больше новостей в телеграм-канале ИноСМИ >>

СВО
1,21 млн интересуются