В 2024 году возникли предположения об использовании искусственного интеллекта в вооружённом конфликте в Газе. Шесть офицеров израильской разведки теперь подтвердили использование базы данных искусственного интеллекта под кодовым названием «Лаванда» (Lavender) в секторе Газа — они утверждают, что сами имели какое-то отношение к этому инструменту.
Сообщается, что в общей сложности при поддержке ИИ было выявлено 37 000 целей ХАМАС. Израильская армия отрицает использование ИИ в конфликте.
Фото: Amir Levy / Getty Images Как сообщали издания «+972» и «The Guardian», в частности, израильская армия разработала программу искусственного интеллекта под названием «Лаванда». Система использовалась во время нынешнего конфликта в секторе Газа для создания целей — особенно в начале боевых действий.
Кроме того, сообщается, что израильская армия классифицировала десятки тысяч людей в секторе Газа как подозреваемых и использовала искусственный интеллект в системе наведения для бомбардировок палестинцев. Сообщается, что человек часто служил лишь «штампом» для решений машины. По словам источников, решения ИИ не подвергались тщательной проверке, и одобрение на атаку часто давалось безоговорочно, как только целью становился мужчина. Обычно на каждую цель тратилось всего «20 секунд».
Сообщалось также, что система допускала «ошибки» примерно в десяти процентах случаев и, таким образом, выявляла цели, не имевшие никакого отношения к группировкам боевиков.
Доказано, что опубликованная в 2021 году книга «Человеко-машинная команда: как создать синергию между человеком и искусственным интеллектом, которая произведет революцию в нашем мире» была написана нынешним командиром элитного израильского подразделения 8200. Автор пишет под псевдонимом «бригадный генерал Ю.С.».
В своей книге он выступает за разработку машины, которая сможет быстро идентифицировать тысячи военных целей, обрабатывая огромные объемы данных. По мнению бригадного генерала Ю.С., такая технология устранит «человеческое препятствие как при обнаружении новых целей, так и при принятии решений по их утверждению».Формально система Lavender предназначена для выявления всех подозрительных объектов. Были ли люди боевиками или нет, имело второстепенное значение, сообщил агент секретной службы израильскому независимому новостному порталу Local Call.
Еще одна автоматизированная система называется «Где папа?». Сообщается, что ее специально использовали для выслеживания целей и обстрела их бомбами, как только они входили в свои дома.
Система ИИ «Евангелие», в свою очередь, отмечала здания и сооружения, из которых действовали боевики — в отличие от «Лаванды», которая специально искала людей.
Сообщается, что в первые несколько недель израильская армия решила, что при обнаружении и атаке каждого боевика, отмеченного Lavender, может быть убито от 15 до 20 мирных жителей. Если целью был высокопоставленный представитель боевиков, например, командир батальона или бригады, военные допускали убийство более 100 мирных жителей как сопутствующий ущерб.
ЦАХАЛ выступил с заявлением в ответ на сообщение Guardian и отрицает использование искусственного интеллекта для обнаружения или нападения:
«ЦАХАЛ не использует систему искусственного интеллекта, которая идентифицирует террористов и не пытается предсказать, является ли человек террористом».
В заявлении также говорится:
«Это не система, а просто база данных, целью которой является сравнение разведывательных источников с целью получения актуальной информации о военных субъектах террористических организаций».