? Выяснилось, что модель Claude от Anthropic использовалась в системе Maven, которая помогает военным США анализировать разведданные и выбирать приоритетные цели. На фоне расследования удара по школе в иранском Минабе (где погибло более 160 человек) вспыхнул конфликт: Anthropic отказалась давать Пентагону полный доступ к ИИ для автономного оружия и массовой слежки. В ответ компанию даже назвали «риском для цепочки поставок». Что на самом деле известно о роли ИИ в этой истории - разобрали в полной новости.