Увы, анекдот про "начал войну по совету ChatGPT" теперь уже не кажется таким уж далеким от реальности.
Они создали «Всевидящее око», чтобы просчитывать войны. Когда Палантир сказал «не надо» — его не послушали. А когда началось — он просто замолчал.
В начале марта 2026 года мир стал свидетелем события, которое перевернуло представление о современной войне. США начали против Ирана операцию «Эпическая ярость» (Operation Epic Fury) . Но готовил эту войну не Пентагон, не ЦРУ и даже не президент. Её спланировал искусственный интеллект.
А потом предупредил: «Не надо».
Его не послушали. Теперь Ближний Восток полыхает, цены на нефть взлетели, а дата-центры Amazon горят. И всё это — история о том, как цифровой «всевидящий камень» стал главным штабистом Третьей мировой.
Часть 1. Что такое Палантир и с чем его едят
Palantir Technologies — это не просто «айтишная контора». Это компания, созданная при прямом участии ЦРУ . Её сооснователь — знаменитый технократ Питер Тиль, человек, который мечтает построить цифровую тиранию и верит в бессмертие.
Название выбрано не случайно. В легендариуме Толкина палантиры — это магические камни, позволяющие видеть то, что происходит за тысячи миль, и общаться с другими камнями. Они давали своим владельцам невероятную власть, но часто искажали реальность и сводили с ума.
В реальности Palantir Technologies делает почти то же самое. Их главный продукт — платформа, которая собирает информацию из сотен источников: спутниковые снимки, перехваты связи, банковские транзакции, сообщения в соцсетях . Система перемалывает этот хаос, находит невидимые связи и выдаёт готовые решения.
Для военных это идеальный инструмент. В 2024 году Пентагон объединил Palantir с разработкой компании Anthropic — нейросетью Claude . Получился монстр под названием Maven Smart System. И этого монстра спустили с поводка.
Часть 2. Искусственный разум против Ирана
28 февраля 2026 года операция «Эпическая ярость» началась с удара, который был спланирован на нечеловеческой скорости. За первые 24 часа авиация и флот США поразили более 1000 целей . Среди них — командные пункты Корпуса стражей исламской революции, фрегаты, подлодки, базы БПЛА и даже первый иранский авианосец «Шахид Багери», который только год назад вошёл в строй .
В Пентагоне не скрывают: без Maven и Claude это было бы невозможно. ИИ анализировал данные в реальном времени, ранжировал цели по важности и выдавал координаты для удара . Процесс, который раньше занимал недели, теперь укладывался в минуты. Как заявил глава CENTCOM адмирал Брэд Купер, эти технологии позволяют отличить «шум от сигнала» быстрее, чем противник успевает среагировать .
Гендиректор Palantir Алекс Карп был более откровенен. В интервью CNBC он заявил: «То, что США могут наводиться с такой точностью и скоростью, полностью изменило способ ведения войны» .
Казалось бы — вот он, триумф технологий. Но дьявол, как всегда, в деталях.
Часть 3. Трагедия в Минабе: когда алгоритм ошибся
В тот же день, 28 февраля, иранские СМИ облетела страшная новость: в результате удара по школе в городе Минаб погибли 175 учителей и школьниц .
Первые расследования показали жуткую правоту гностиков, боявшихся машин. Школа была включена в базу целей как «военный объект», хотя работала учебным заведением годами. Maven, обрабатывая массивы данных на скорости света, просто не заметил подмены. А человек на том конце цепи, видя цель в списке, нажал кнопку «огонь» .
Адмирал Купер уверяет: люди всегда принимают окончательное решение. Но как может человек перепроверить решение машины, если машина выдаёт тысячи вариантов в минуту? Глава CENTCOM признаёт: скорость работы алгоритмов «не оставляет противнику времени на реакцию». Но она не оставляет времени и на проверку собственных ошибок.
Инцидент в Минабе стал символом новой войны. Войны, где цена машинной ошибки — детские жизни.
Часть 4. Они предупреждали. Их не слушали
Но самая большая ирония в другом. Как выяснилось, американские военные использовали технологии Anthropic, несмотря на то, что сама компания была против. Anthropic встроила в свои модели жёсткие этические ограничения, запрещающие использовать их для создания полностью автономного оружия и систем тотальной слежки .
Более того, по данным источников, система Maven при моделировании конфликта выдала прогноз, который говорил о высоких рисках и непредсказуемых последствиях. «Начинать не советую» — таков был вердикт искусственного интеллекта.
Но политическое решение уже приняли.
Когда глава Anthropic Дарио Амодеи попытался воспрепятствовать использованию своей технологии в боевых действиях, администрация Трампа отреагировала мгновенно. Пентагон объявил компанию «угрозой для цепочек поставок», что фактически запрещает ей работать с оборонкой . Чиновники дали понять: если Амодеи попробует отключить Claude, технологию просто конфискуют. Потому что «его моральные принципы не могут стоить жизни ни одного американца».
Разразился скандал. Anthropic подала в суд на Пентагон, заявив о нарушении конституционных прав . Но война уже шла.
Часть 5. Ответный удар по облакам
Иран оказался не готов к такой войне. Их ПВО подавили, командование обезглавили, флот потопили. Но они быстро поняли главное: война теперь идёт не только танками, но и серверами.
Аффилированные с КСИР информагентства опубликовали список из примерно 30 целей — и это были не военные базы. Это были офисы и дата-центры Google, Microsoft, Amazon, Oracle, Nvidia и самого Palantir в ОАЭ, Бахрейне и Израиле . «Инфраструктура вражеских технологий», — назвали их в Тегеране.
1 марта 2026 года дроны нанесли удары по дата-центрам Amazon Web Services в ОАЭ и Бахрейне . Попадания подтверждены. Серверы горели, облачные сервисы в регионе падали. Иран объявил, что это лишь начало. Технологическим гигантам, которые помогали убивать иранцев, дали понять: их офисы так же уязвимы, как и военные базы.
Заключение. Хозяин или слуга?
Вся эта история — готовый сценарий для фильма-катастрофы. Искусственный интеллект просчитывает войну, но предупреждает об опасности. Его создатели пытаются его остановить, но государство объявляет их врагами. Война начинается, и первой жертвой падает школа для девочек. А те, кого бомбят, в ответ жгут не танки, а серверы.
Но главный вопрос остаётся без ответа: кто же на самом деле принимает решения? Генерал, который видит готовую цель на экране? Алгоритм, который эту цель выбрал? Или программист, который когда-то научил алгоритм «оптимизировать эффективность»?
В анекдоте про ChatGPT, который начал войну, а потом сказал «Хм, я не учел», — смешно ровно до того момента, пока не понимаешь, что это уже не анекдот.
Потому что Палантир всё видел. Он сказал: «Не надо». Но на кнопку нажали люди.
Использованные источники:
- Washington Post, Новости Mail
- EFE, SwissInfo
- Альма-Матер МнСВУ
- Официальный сайт Объединённой базы Сан-Антонио (mil)
- Казинформ (Al Jazeera)
- Московский комсомолец (Bloomberg, WSJ)
- Delfi (Euronews)
- Defense Security Monitor