Найти в Дзене
DigiNews

Ультиматумы Anthropic AI и кража интеллектуальной собственности: невысказанный риск в сфере безопасности

Недавние инциденты с Claude AI от Anthropic выявили риск в сфере ИИ: давление извне. Кампания по извлечению данных из Китая и запрет на использование в США из-за разногласий по поводу этики показывают, что передовые модели ИИ стали объектом геополитического и операционного воздействия. — csoonline.com Два недавних громких события, связанных с Claude AI от Anthropic, высвечивают мало обсуждаемый риск, лежащий в основе стремления предприятий монетизировать передовые возможности искусственного интеллекта. Первый инцидент касался кампании по извлечению интеллектуальной собственности Anthropic, проводившейся из Китая. Второй — запрет администрации Трампа на использование Claude в федеральных структурах после того, как компания отказалась выполнить требования США изменить свои защитные механизмы. Разумеется, Claude не является проблемой, и Anthropic — не злодей. Сама компания и продукт не вызывают вопросов. Проблема в том, что передовые модели ИИ в настоящее время подвергаются одновременно д
Оглавление

Недавние инциденты с Claude AI от Anthropic выявили риск в сфере ИИ: давление извне. Кампания по извлечению данных из Китая и запрет на использование в США из-за разногласий по поводу этики показывают, что передовые модели ИИ стали объектом геополитического и операционного воздействия. — csoonline.com

Два недавних громких события, связанных с Claude AI от Anthropic, высвечивают мало обсуждаемый риск, лежащий в основе стремления предприятий монетизировать передовые возможности искусственного интеллекта.

Первый инцидент касался кампании по извлечению интеллектуальной собственности Anthropic, проводившейся из Китая. Второй — запрет администрации Трампа на использование Claude в федеральных структурах после того, как компания отказалась выполнить требования США изменить свои защитные механизмы.

Разумеется, Claude не является проблемой, и Anthropic — не злодей. Сама компания и продукт не вызывают вопросов. Проблема в том, что передовые модели ИИ в настоящее время подвергаются одновременно двум совершенно разным видам давления: незаконному извлечению данных иностранными субъектами, стремящимися изучить и воспроизвести их поведение, и законным требованиям со стороны отечественных заказчиков, желающих изменить это поведение в соответствии со своими задачами.

Обе силы действуют в рамках своих собственных стимулов. Обе реальны. И обе создают условия, которые директора по информационной безопасности (CISO) должны учитывать при принятии любого решения о развертывании этих систем внутри своих предприятий.

Нейтралитет передового ИИ больше не существует

Передовые модели ИИ больше не функционируют в нейтральном пространстве. Они находятся в среде, где иностранные субъекты собирают информацию о них и против них в больших масштабах, а крупные отечественные заказчики пытаются направить их поведение в соответствии с потребностями миссии.

Ни одна из этих динамик не делает Anthropic злодеем, и ни одна не делает Claude скомпрометированным активом. Это означает лишь то, что геополитическая изоляция, которой когда-то пользовались эти системы, исчезла. Окружающая среда стала частью поверхности риска, и теперь CISO должны учитывать давление, действующее на модель задолго до того, как она попадет в их предприятие.

Кампания по извлечению данных Китаем: Операция по целевому воздействию, а не любопытство

Заявление Anthropic о том, что три китайские компании в сфере ИИ (DeepSeek, Moonshot AI и MiniMax) осуществили более 16 миллионов взаимодействий через примерно 24 000 мошеннических учетных записей, — это не история о неправомерном использовании модели. Это история о целевом воздействии. Эти кампании были направлены непосредственно на наиболее чувствительные возможности Claude: агентное рассуждение, использование инструментов и кодирование. Это не случайная выборка; это структурированный сбор данных.

Я провел достаточно времени в мире целевого воздействия, чтобы немедленно распознать этот шаблон, и вам не нужен мой уровень опыта, чтобы увидеть это. Когда противник может наблюдать за системой в масштабе, он может составить карту ее сильных сторон, уязвимостей и предсказуемого поведения. Теперь у Китая есть эти поведенческие телеметрия для Claude, и они будут использовать ее для настройки собственных систем и формирования наступательных операций против сред, где развернуты модели, подобные Claude.

И Claude — не единственная система в прицеле Китая. Те же субъекты использовали аналогичные методы высокообъемного извлечения данных против других передовых моделей, включая Gemini от Google и ChatGPT от OpenAI. Они генерируют достаточно данных о взаимодействии, чтобы понять, как мыслят эти системы и где на них можно надавить.

Привлечение внимания Anthropic к этой проблеме служит на пользу всему сообществу, поднимая предупреждающий флаг там, где он высок и заметен. Вывод очевиден: передовые модели теперь являются поверхностями для сбора разведданных.

Давление правительства США: Прямое, немедленное и операционно значимое

Давление с другой стороны Claude исходило от правительства США и было прямым.

Высокопоставленные представители оборонного ведомства ясно дали понять, что хотят получить возможность направлять Claude на выполнение задач, требующих изменения или удаления защитных механизмов, которые Anthropic установила в отношении автономного оружия и широкомасштабного наблюдения. Генеральный директор Anthropic Дарио Амодеи ответил двумя опасениями, которые важны для любого, кто отвечает за риски: системы ИИ не обладают человеческим предохранителем в виде отказа выполнить неправомерный приказ, а использование ИИ для обработки всего потока публичных разговоров поднимает вопросы о конституционных правах и гражданских свободах, которые компания не была готова игнорировать. Эти моменты объясняют, почему Anthropic отказалась.

Реакция правительства была быстрой. Было объявлено, что Claude будет удален из всех государственных систем с шестимесячным поэтапным выводом, а Anthropic была классифицирована как риск для цепочки поставок.

В собственном заявлении компании подчеркивалось напряжение: Claude одновременно описывался как потенциальная угроза безопасности и как система, достаточно важная, чтобы потребовать принятия экстраординарных мер по изменению его поведения.

Для CISO вывод заключается не в том, кто прав. А в том, что на передовую модель, уже встроенную в закрытые сети, рабочие процессы разведки и оперативное планирование, может оказываться внешнее давление, которое существенно изменит ее поведение для всех последующих заказчиков.

Два давления, одна структурная уязвимость

Кампания по извлечению данных Китаем и прямое давление правительства США на Anthropic исходили с противоположных сторон и по совершенно разным причинам, но операционный эффект один и тот же: обе силы воздействуют на модель извне предприятия. Ни одно из давлений ничего не говорит о качестве модели или добросовестности поставщика. Это показывает, что передовой ИИ вступил в фазу, когда внешние субъекты активно работают над влиянием на то, как эти системы функционируют.

Для CISO важен именно этот момент. Модель может быть профилирована, изучена или подвергнута давлению задолго до того, как она попадет в вашу среду, и эти вышестоящие силы могут формировать то, как она будет работать, оказавшись внутри вашей экосистемы.

Риск заключается в том, что любая передовая модель, обладающая таким уровнем возможностей, привлечет такое же внимание и такие же попытки направить ее поведение. Среда вокруг этих систем теперь является оспариваемым пространством, и эта уязвимость сопровождает модель везде, где она развернута.

Ответ поставщиков ИИ

Как только правительство объявило о планах по удалению Claude из федеральных систем, другие поставщики быстро заняли освободившееся место. OpenAI первой вышла вперед, обнародовав новое соглашение о размещении своей модели в закрытых сетях. Сэм Альтман позже добавил взвешенный комментарий в интервью CNBC, отметив свое недовольство жестким давлением на компании, занимающиеся ИИ, но при этом позиционируя OpenAI как готовую альтернативу. Это был четкий сигнал: возможность открылась, и OpenAI намерена ею воспользоваться.

xAI последовала этому примеру, получив собственное одобрение на развертывание в закрытых сетях, при этом запуск Grok запланирован на начало 2026 года. Илон Маск представил Anthropic в качестве противника, но риторика вторична по отношению к операционной реальности: правительству нужны были дополнительные варианты, и экосистема поставщиков без колебаний их предоставила.

Для CISO урок прост: когда один поставщик отказывается адаптировать модель для удовлетворения ожиданий крупного заказчика, другой поставщик немедленно выходит на сцену. Давление не исчезает. Давление переходит на следующую модель в очереди. Эта динамика теперь является частью операционной среды для любого предприятия, полагающегося на передовой ИИ.

Новая операционная реальность

Передовой ИИ теперь находится в среде, сформированной силами, которые предприятие не контролирует. Поставщики принимают решения под давлением этих внешних факторов, и последствия распространяются вниз по цепочке. Ничто из этого не означает, что модели сломаны или ненадежны. Это означает, что они функционируют в ландшафте, где внешние субъекты обладают рычагами влияния, намерением и видимостью.

Для CISO корректировка заключается в том, чтобы рассматривать эти системы как критически важные зависимости, подверженные внешнему влиянию. Модель, которую вы развертываете, — это не просто артефакт, который вы получаете; это продукт давлений, действующих на поставщика, и внимания, которое модель привлекает, как только демонстрирует свои возможности.

Задача состоит в том, чтобы обеспечить достаточную прозрачность и мониторинг, чтобы понять, когда эти силы начинают проявляться в вашей собственной среде.

Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.

Автор – Christopher Burgess

Оригинал статьи