Вступление
Вторжение палестинской группировки ХАМАС на израильские территории 7 октября привело к осуждению со стороны международного сообщества Палестины, но после того, как Армия обороны Израиля (ЦАХАЛ) дала ответ палестинцам, быстро оттеснив их к сектору Газа и перейдя к массированным обстрелам гражданских кварталов, многие страны мира, включая европейские, были возмущены действиями Израиля.
Круглосуточные авиационные удары по анклаву, которые в израильской армии называли «точечными», на самом деле привели к гибели мирного населения, ведь порой военные ставили основную цель по ликвидации ХАМАС выше смертоносности своих методов и принципов гуманизма.
Соединённые Штаты Америки - главный союзник Израиля, тоже не в восторге от того, каким образом израильская армия достигает выполнения задачи по демилитаризации Газы. Министр обороны страны Ллойд Остин предупредил израильских властей, что их тактическая победа может обернутся стратегическим поражением, когда палестинцы встанут на сторону ХАМАС, попросту не желая быть убитыми в ходе бомбардировок сектора Газа.
Ещё в мае 2021 года появилась первая информация, что Израиль в ходе 11-дневной войны мог впервые применить искусственный интеллект, задействовав машинное обучение и передовые вычисления. Сейчас же издание The Guardian подробно рассказало о том, как искусственный интеллект под названием «Евангелие» помогает ЦАХАЛ нацеливаться на позиции ХАМАС, забывая о мирном населении.
Искусственный интеллект «Евангелие» и его роль в бомбардировках Газы
В начале ноября в ЦАХАЛ рассказали о том, как его административное подразделение выявило более 12 тысяч целей в секторе Газа. Тогда говорилось, что израильские военные работают без компромиссов, определяя, кто и что является врагов, а палестинские силы не скроются - где бы они не прятались.
Фактически после этого не отрицалось существование системы искусственного интеллекта, способной быстро и автоматически использовать разведывательные данные для формирования рекомендаций военным по нанесению ударов, которые проверялись человеком перед тем, как отдавать приказ пилотам.
Знакомые с вышеуказанной системой источники израильского издания +972 Magazine рассказали о том, как «Евангелие» формировала целые списки целей, указывающих на жилые кварталы и дома, где предположительно могли находится члены палестинского движения ХАМАС или Исламского джихада Палестины. Источники указывают на помощь искусственного интеллекта в создании ЦАХАЛ базы данных, где разместили от 30 до 40 тысяч подозреваемых в членстве в ХАМАС.
Бывший Начальник Генерального штаба ЦАХАЛ Авив Кохави в опубликованном перед событиями 7 октября интервью объяснил, что «Евангелие» представляет собой машину, производящую огромные базы данных более эффективно, чем любой человек. Впоследствии все они становятся целями для обстрелов Военно-воздушными силами страны.
Генерал-лейтенант Армии обороны Израиля Авив КохавиКохави также подтвердил, что активация искусственного интеллекта произошла в 2021 году как раз таки во время 11-дневной войны. Тогда была речь о выводе около 50 целей в Газе за год. Сейчас же система выдаёт 100 целей в день, 50% из которых подвергаются атакам.
Неясно, какие именно формы и методы используются искусственным интеллектам. Однако эксперты утверждают, что системы, используемые для принятия решений, обычно анализируют обширные объёмы информации из различных источников, таких как видеозаписи с дронов, перехваченные сообщения, данные наблюдений и информация, полученная из мониторинга действий и моделей поведения как отдельных лиц, так и больших групп.
Бывший чиновник, работавший над решениями о выборе целей во время предыдущих израильских операций в секторе Газа, рассказал +972 Magazine, что раньше ЦАХАЛ не уделяли внимание домам, где проживали члены ХАМАС низких рангов. Сейчас же целями для бомбардировок становятся даже дома тех, кого всего лишь подозревают в войне на стороне бригад «Изз ад-Дин аль-Кассам»
«Фабрика массовых убийств» или как ИИ помогает убивать мирных палестинцев
Источники израильских изданий Local Call и +972 Magazine объясняют, что сейчас цели подготавливаются автоматически, а бомбардировщики лишь отрабатывают их по чек-листу. Отмечается сходство системы с фабрикой:
«Мы работаем быстро и нет времени глубоко вникать в цель. Считается, что нас оценивают по тому, сколько целей нам удалось достичь» - говорит источник.
Другие источники тоже называют искусственный интеллект «фабрикой массовых убийств», которая делает упор не на качество, а на количество. Не исключается и факт проверки рекомендованных целей человеческим глазом, но теперь всё происходит в разы быстрее.
Работавший до 2021 года над планированием ударов для ЦАХАЛ источник сказал, что окончательное решение о нанесении удара принимает командир подразделения на дежурстве. Бывший высокопоставленный израильский военный источник сообщает The Guardian, что оперативные подразделения используют очень точные данные о количестве гражданских лиц, эвакуированных из здания незадолго до удара: «Мы используем алгоритм, чтобы оценить, сколько мирных жителей осталось. Он даёт нам зеленый, желтый и красный цвета, как сигнал светофора»
Спутниковые снимки северного города Бейт-Ханун в секторе Газа до (10 октября) и после (21 октября) Опубликованные Maxar Technologies
Иногда принятые решения вызывают сомнения, стоила ли гибель мирного населения достигнутой цели. По данным израильской армии, всего за 35 дней боевых действий им удалось поразить 15 тысяч целей, связанных с палестинским движением ХАМАС. По данным Министерства здравоохранения Палестины, подконтрольного ХАМАС, с момента начала войны с Израилем уже погибло 15,5 тысяч палестинцев, а 40 тысяч человек получили ранения.
Подобная автоматизация вызывает опасения у ряда экспертов, в частности у доктора Стокгольмского международного института исследования проблем мира Марты Бо, видящей в ситуации два существенных риска: первый - формирование предвзятости к автоматизации процессов, второй - слишком большое доверие к машине, оказывающей всё больше влияния на мир и принятие решений человеком.
«Существует опасность, что, когда люди начнут полагаться на эти системы, они станут винтиками механизированного процесса и потеряют способность осмысленно учитывать риск причинения вреда гражданскому населению», - считает Ричард Мойес, возглавляющий организацию Article36, выступающую за снижение вреда от оружия.