Недавняя трагедия в иранском Минабе – гибель множества детей и взрослых при ударе по начальной школе для девочек – потрясла без преувеличения весь мир и в очередной раз заставила задуматься над вечными вопросами: кто виноват и что делать? В наши дни поиск ответов на них затрудняется осознанием того, что в современных конфликтах решения могут приниматься не только человеком, но и искусственным интеллектом. О том, какие уроки случившегося видны профессиональным глазом, глава Центра изучения военных и политических конфликтов Андрей Клинцевич рассказал в беседе с политическим обозревателем Аналитического центра ТАСС Андреем Шитовым.
Что мы знаем о происшедшем достоверно, как факт? Есть такое?
— Да. Фактов несколько. Первое: это был первый удар, который американцы наносили крылатыми ракетами «Томагавк». То есть задача была не только подавить системы ПВО до ввода туда авиационных подразделений, но и, скажем так, «выключить верхушку».
Иранцы показали видео, на котором четко виден силуэт ракеты «Томагавк» на подлете к школе. И обломки ракеты, извлеченные из-под завалов, говорят о том, что да, это ракета американского производства...
То есть в этом сомнений нет: что это именно американцы…
— Да, причем [президент США Дональд] Трамп начал выдвигать оправдания: мол, да, это «Томагавк», но мало ли у кого могут быть «Томагавки». Может, это Иран у кого-то купил…
Дальше есть второй интересный факт. Первоначально предполагалось, что это ошибка операторов, которые формировали полетное задание для ракет и на базе КСИР (Корпус стражей иранской революции – прим. ТАСС), условно говоря, нанесли на карту все здания этой базы, включая и школьное, которое на самом деле было убрано с этой территории, но формально находилось как будто там. То есть якобы они могли это перепутать: вот, мол, еще одно здание и давайте туда тоже жахнем. И не проверили, что оно давно не военное, и в нем детская начальная школа...
Так вот, второй факт нам дал из своих инсайдов [известный американский журналист] Такер Карлсон. Он сказал, что это не ошибка, а преднамеренное выманивание из укрытия высокопоставленных офицеров КСИР.
То есть, условно говоря, пошел налёт. Офицеры все спустились в блиндажи. Ракеты ударили по зданиям. После этого они узнали, что под удар попала школа. А там в основном их дети…
И бросились туда…
— Все бросились туда, и через 40 минут вторая ракета ударила по школе. Не по какому-то другому зданию, а именно по школе.
Конечно, это признак тяжелейшего военного преступления.
Да, кошмар. А Такер на что ссылался?
— На свои источники в Пентагоне и некий объективный анализ. По совокупности данных.
Кто виноват
Поскольку у нас разговор в контексте использования ИИ, у меня дальше был вопрос о том, кто виноват – люди или машины. Но из вашего описания очевидно, что машины ни при чем. Виноваты люди. Правильно?
— Да, но есть «но». Оно заключается в том, что американцы действительно сейчас запустили единое приложение компании Palantir, которое вовсю рекламируется, как очень новый крутой ”soft” (программное обеспечение) для ведения боевых действий. Оно позволяет интегрировать туда все боевые системы. И туда же вводится реестр целей и все остальное. Ведь фактически что такое искусственный интеллект и для чего он используется в войне? Для быстрого предоставления командиру или любому сотруднику Минобороны обобщенных данных из огромного реестра информации. Это еще называют «метаданными».
Ну, например: чтобы установить, что объект внимания – база КСИР, нужно изучить спутниковые снимки, а еще всякие доклады разведки, сотни часов прослушки [разговоров] офицеров с этой базы и т.д. и т.п. Это там, не знаю, неделя человеко-часов. А система это сделает за минуту и скажет: да, это база КСИР. Вот эти пять зданий – условно говоря, штаб, склад и что-то еще. Предлагаю следующий расход боеприпасов для уничтожения базы: сюда и сюда по одной [ракете], а сюда две, потому что мы считаем, что там укрепленный объект. Прошла информация, что там двойное железобетонное перекрытие… К примеру.
Но всё равно финальное согласие, “approve”, как говорят американцы, даёт человек.
А Такер Карлсон очень серьезно поменял общую оптику, добавив фактор преднамеренного воздействия через страх за детей. Это как снайпер, который кого-то ранит, а потом ждет, когда другие пойдут на помощь раненому…
Хорошо. Кто виноват – понятно. Хотя вот вопрос: а изготовители такой «замечательной» программы военного управления – они злодеи? Или они ни при чем? Просто технические исполнители…
— Ну, как бы назвать их злодеями, наверное, нельзя. Там же уже был скандал. Директору Palantir [Алексу Карпу] пришлось публично слушать крики женщины-палестинки, потому что программа изначально проверялась, в том числе, и в Газе…
Но в принципе они выступают просто как подрядчики Пентагона. Им поступило техническое задание, и они его отрабатывают. Я не думаю, что у них какой-то злой умысел, кровожадность и т.п.
Что делать
Хотя своим техническим инструментарием они злодеяние обеспечили. Так, первый классический вопрос обсудили. Второй – что делать? Будь то с людьми или с машинами. Вот нам в этой ситуации, на ваш профессиональный взгляд, что со всем этим делать? Учиться? Уроки извлекать?
— Мы создаем аналогичные системы…
Аналогичные? С такими же целями?
— Для ускорения процессов. Иначе мы будем неконкурентоспособными на поле боя.
А не получится, что конкурирующие друг с другом машины ввергнут нас в ад?
— Просто для понимания. В системах ПВО машины в автоматическом режиме общаются между собой и распределяют цели. Говорят: вот это гарантированно противник, эта цель опасна и ее надо сбить первой. Это летящая на Москву ракета и мы вам, товарищ оператор, все рассчитали. А вот эту цель мы подсвечиваем, как непонятную. Может быть, это гражданский самолет…
Она [система] не принимает решения на открытие огня. Всё равно это делает человек. А она только ускоряет процессы.
Скорость – ключевой фактор. В системах ПВО ты не успеешь все вручную просчитать и среагировать. И поле боя превращается в такую же историю…
Важный прецедент
Что еще важное я не знал или забыл? Что обязательно нужно упомянуть?
— Позавчера произошло резонансное событие. В центре Киева были обнаружены обломки наших скоростных ударных дронов «Ланцет». Противник опровергает, но, по некоторым данным, это первое применение нами дронов полностью с искусственным интеллектом.
Бывает, когда машина тебе говорит: вот это цель и ее можно обстрелять. Но когда рой дронов улетает в Киев, дальше он сам определяет, по каким целям он будет бить. Если по дороге они глазами своими электронными видят военные системы, то в стае договариваются, какая машина сворачивает и уничтожает цель…
Это первое применение полностью автоматизированных, с искусственным интеллектом машин. Которые сами принимают решение нанести удар.
А это разве не противоречит вашим же словам о том, что все равно конечную команду всегда дает человек?
— Это мы раньше говорили про другие, большие системы управления на поле боя… А здесь всё делает машина.
Почему приходится идти на такие варианты? Потому что в условиях полного РЭБ-подавления туда можно отправить машину для пассивного наблюдения. Но ты не сможешь управлять ей дистанционно. Не сможешь получить с неё картинку, чтобы самому принять решение на открытие огня.
Тебе приходится обучать машину, чтобы она у себя на борту принимала эти решения.
Но со спутника ты уже видел, что в данном районе есть военная цель. И ты заложил ей, что цель выглядит вот так и никак иначе. Никакая другая не подлежит обстрелу. И тогда высока вероятность, что она её найдет и по ней ударит.
Аналитический центр ТАСС
Подписаться на ТГ-канал ТАСС_Аналитика