Найти в Дзене
«ФениксНistory»

1000 целей за 24 часа: уничтожение на автопилоте? Как искусственный интеллект мгновенно меняет правила войны с Ираном

28 февраля 2026 года произошло нечто невероятное. В самом начале военной операции против Ирана, американская армия за один день сделала то, на что раньше ушли бы недели. Всего за 24 часа они нашли, оценили важность и отправили на уничтожение около 1000 целей. Это не просто разведка, как мы привыкли её понимать.
За этим прорывом стоят две умные технологии: система Palantir Maven Smart System и
Оглавление

28 февраля 2026 года произошло нечто невероятное. В самом начале военной операции против Ирана, американская армия за один день сделала то, на что раньше ушли бы недели. Всего за 24 часа они нашли, оценили важность и отправили на уничтожение около 1000 целей. Это не просто разведка, как мы привыкли её понимать.

ИИ для войны
ИИ для войны

Что за волшебство?

За этим прорывом стоят две умные технологии: система Palantir Maven Smart System и большая языковая модель Claude от компании Anthropic.

Вот как это работало:

  1. Maven — "мозг" сбора информации: Эта система собирала огромное количество данных: картинки со спутников, видео с разведывательных дронов, информацию о радиосигналах и кучу других данных. Всё это Maven превращал в понятную, упорядоченную информацию.
  2. Claude — "аналитик", который всё сводит: Claude, большая языковая модель, которая работает внутри военных систем, брал информацию от Maven и составлял из неё готовые "пакеты" для атаки. В каждом пакете было: точные координаты цели, какие бомбы или ракеты лучше использовать, и даже готовое юридическое обоснование, почему этот удар соответствует законам войны.
  3. Человек — "окончательный" подтверждающий: Военный офицер в этой схеме выступал как последний, кто смотрит на результат. По сути, он проверял то, что машина уже сделала.

Проблемы и обходные пути

Как пишет газета Washington Post, не всё прошло гладко. Внутри компании Anthropic были сотрудники, которые выступали против сотрудничества с военными. Они считают, что ИИ должен быть "ответственным" и не участвовать в убийствах.

Но Пентагон и Palantir нашли способ обойти эти сомнения. Они оформили Claude как "инструмент для анализа", который лишь "предлагает" цели, а не "принимает решение" об ударе. Формально, последнее слово остаётся за человеком.

Но на деле разница почти нулевая. Когда машина выдаёт 1000 готовых целей с доказательствами, а у человека нет времени проверить каждую, решение по факту принимает компьютер.

Итог:

Теперь использование ИИ для наведения на цели — это не просто фантастика, а реальность. Скорость, с которой находятся цели, выросла колоссально. ИИ видит не только очевидные здания, но и военную логистику, системы связи, электростанции — всё, что формирует "портрет" противника. Это то, что человеку самостоятельно никогда не просчитать.

Когда машина "предлагает" цель, а человек только нажимает кнопку, становится очень сложно понять, кто на самом деле несёт ответственность за убийство — человек или алгоритм.

-2