28 февраля 2026 года произошло нечто невероятное. В самом начале военной операции против Ирана, американская армия за один день сделала то, на что раньше ушли бы недели. Всего за 24 часа они нашли, оценили важность и отправили на уничтожение около 1000 целей. Это не просто разведка, как мы привыкли её понимать.
Что за волшебство?
За этим прорывом стоят две умные технологии: система Palantir Maven Smart System и большая языковая модель Claude от компании Anthropic.
Вот как это работало:
- Maven — "мозг" сбора информации: Эта система собирала огромное количество данных: картинки со спутников, видео с разведывательных дронов, информацию о радиосигналах и кучу других данных. Всё это Maven превращал в понятную, упорядоченную информацию.
- Claude — "аналитик", который всё сводит: Claude, большая языковая модель, которая работает внутри военных систем, брал информацию от Maven и составлял из неё готовые "пакеты" для атаки. В каждом пакете было: точные координаты цели, какие бомбы или ракеты лучше использовать, и даже готовое юридическое обоснование, почему этот удар соответствует законам войны.
- Человек — "окончательный" подтверждающий: Военный офицер в этой схеме выступал как последний, кто смотрит на результат. По сути, он проверял то, что машина уже сделала.
Проблемы и обходные пути
Как пишет газета Washington Post, не всё прошло гладко. Внутри компании Anthropic были сотрудники, которые выступали против сотрудничества с военными. Они считают, что ИИ должен быть "ответственным" и не участвовать в убийствах.
Но Пентагон и Palantir нашли способ обойти эти сомнения. Они оформили Claude как "инструмент для анализа", который лишь "предлагает" цели, а не "принимает решение" об ударе. Формально, последнее слово остаётся за человеком.
Но на деле разница почти нулевая. Когда машина выдаёт 1000 готовых целей с доказательствами, а у человека нет времени проверить каждую, решение по факту принимает компьютер.
Итог:
Теперь использование ИИ для наведения на цели — это не просто фантастика, а реальность. Скорость, с которой находятся цели, выросла колоссально. ИИ видит не только очевидные здания, но и военную логистику, системы связи, электростанции — всё, что формирует "портрет" противника. Это то, что человеку самостоятельно никогда не просчитать.
Когда машина "предлагает" цель, а человек только нажимает кнопку, становится очень сложно понять, кто на самом деле несёт ответственность за убийство — человек или алгоритм.