Добавить в корзинуПозвонить
Найти в Дзене
DigiNews

Anthropic обвиняет Китай в попытке «в промышленных масштабах» украсть возможности Claude

Anthropic заявляет, что несколько китайских ИИ-лабораторий пытались манипулировать Claude, используя обширные сети фейковых аккаунтов для извлечения данных для обучения собственных моделей. Читать далее... — neowin.net Компания Anthropic опубликовала новый отчет, в котором утверждается, что три крупные китайские компании-разработчика ИИ провели масштабные кампании по копированию ее технологий. Лаборатории MiniMax, DeepSeek и Moonshot предположительно использовали тысячи мошеннических учетных записей для незаконного извлечения возможностей из флагманской модели Anthropic — Claude. По данным лаборатории, операция была нацелена конкретно на самые передовые навыки Claude в области агентного рассуждения, использования инструментов и программирования. Дело в том, что дистилляция — метод, при котором более слабая модель обучается путем имитации результатов работы более продвинутой — является законной отраслевой практикой. Ведущие лаборатории ИИ регулярно проводят дистилляцию своих собственных

Anthropic заявляет, что несколько китайских ИИ-лабораторий пытались манипулировать Claude, используя обширные сети фейковых аккаунтов для извлечения данных для обучения собственных моделей. Читать далее... — neowin.net

Компания Anthropic опубликовала новый отчет, в котором утверждается, что три крупные китайские компании-разработчика ИИ провели масштабные кампании по копированию ее технологий. Лаборатории MiniMax, DeepSeek и Moonshot предположительно использовали тысячи мошеннических учетных записей для незаконного извлечения возможностей из флагманской модели Anthropic — Claude. По данным лаборатории, операция была нацелена конкретно на самые передовые навыки Claude в области агентного рассуждения, использования инструментов и программирования.

Дело в том, что дистилляция — метод, при котором более слабая модель обучается путем имитации результатов работы более продвинутой — является законной отраслевой практикой. Ведущие лаборатории ИИ регулярно проводят дистилляцию своих собственных больших моделей для создания меньших, более дешевых и эффективных версий для конкретных клиентских приложений. Проблема, как утверждает Anthropic, возникает, когда конкурент использует эту технику для получения мощных возможностей за долю времени и затрат, которые потребовались бы для их разработки с нуля.

В отчете Anthropic подробно описывается кампания «промышленного масштаба», включавшая около 24 000 мошеннических учетных записей, которые сгенерировали более 16 миллионов сеансов взаимодействия с Claude. Это было сделано с помощью сервисов, использующих так называемые архитектуры «гидра-кластера» — обширные сети учетных записей, которые маскируют и распределяют трафик для уклонения от обнаружения.

Американская лаборатория заявляет, что смогла с «высокой степенью уверенности» идентифицировать виновных посредством корреляции IP-адресов, метаданных запросов, индикаторов инфраструктуры и в некоторых случаях подтверждения от отраслевых партнеров. Вот полный расклад:

В ответ на эти выводы Anthropic сообщила, что разработала несколько классификаторов и систем поведенческого профилирования, предназначенных для выявления таких паттернов атак дистилляции в трафике своего API. Компания также делится техническими индикаторами с другими лабораториями ИИ и облачными провайдерами, а также усилила верификацию для образовательных и исследовательских учетных записей. Это включает разработку инструментов, способных обнаруживать скоординированную активность в большом количестве аккаунтов.

Лаборатория ИИ недавно закрыла масштабный раунд финансирования Серии G на 30 миллиардов долларов, доведя свою оценку до 380 миллиардов долларов. Недавно также были выпущены обновленные модели — Claude Sonnet 4.6 и Claude Opus 4.6, которые могут похвастаться улучшенной производительностью.

Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.

Автор – David Uzondu

Оригинал статьи