Найти в Дзене
ITtech

Когда ИИ воруют друг у друга: что происходит вокруг Anthropic и китайских моделей

История звучит как сюжет из киберпанка. Американская Anthropic заявляет, что китайские компании DeepSeek, MiniMax и Moonshot выкачали из Claude огромный объем знаний. По их версии, разработчики создали ферму из 24 000+ подставных аккаунтов, прогнали через них больше 16 миллионов диалогов и использовали ответы Claude, чтобы ускорить обучение своих моделей. Формально это называется дистилляция. Одна модель выступает как "учитель" - отвечает на вопросы, объясняет, пишет код. Вторая модель как "ученик" - учится на этих примерах и постепенно копирует стиль и уровень. Такой подход популярен во всей индустрии ИИ. Но есть нюанс: в условиях использования Anthropic прямо запрещено тренировать другие модели на базе ответов Claude и дополнительно не разрешено применять их технологии в Китае. На этом месте история превращается из технической в политическую. Anthropic вместе с OpenAI теперь призывают правительство США и коллег по рынку защитить американские модели от дистилляции китайскими компаниям

История звучит как сюжет из киберпанка. Американская Anthropic заявляет, что китайские компании DeepSeek, MiniMax и Moonshot выкачали из Claude огромный объем знаний. По их версии, разработчики создали ферму из 24 000+ подставных аккаунтов, прогнали через них больше 16 миллионов диалогов и использовали ответы Claude, чтобы ускорить обучение своих моделей.

Anthropic обвиняет китайские компании в дистилляции Claude
Anthropic обвиняет китайские компании в дистилляции Claude

Формально это называется дистилляция. Одна модель выступает как "учитель" - отвечает на вопросы, объясняет, пишет код. Вторая модель как "ученик" - учится на этих примерах и постепенно копирует стиль и уровень. Такой подход популярен во всей индустрии ИИ. Но есть нюанс: в условиях использования Anthropic прямо запрещено тренировать другие модели на базе ответов Claude и дополнительно не разрешено применять их технологии в Китае.

На этом месте история превращается из технической в политическую. Anthropic вместе с OpenAI теперь призывают правительство США и коллег по рынку защитить американские модели от дистилляции китайскими компаниями. Речь уже не только о нарушении пользовательского соглашения, но и о контроле над стратегическими ИИ технологиями между странами.

Для разработчиков и бизнесов у этой истории есть очень практическое продолжение. Чем громче становятся такие скандалы, тем более жесткими становятся правила:

  • платформы ограничивают регионы и IP
  • усиливают капчи и проверки "человечности" сессий
  • добавляют юридические риски в лицензию даже для честных пользователей
  • могут сильнее закрываться и реже выпускать открытые модели и датасеты
Ответы ИИ как обучающие данные
Ответы ИИ как обучающие данные

По сути, рынок входит в фазу, где доступ к сильным моделям становится не только техническим, но и геополитическим вопросом. И чем активнее одни игроки выкачивают чужие модели "через забор", тем больше поводов у других усиливать забор и вешать на него камеры.

С другой стороны, сама практика дистилляции поднимает сложный вопрос: где граница между "вдохновиться" и "системно копировать". Люди учатся друг у друга веками, но когда это делает ИИ на миллионах примеров и по условиям сервиса это запрещено, спор очень быстро переезжает из области этики в плоскость юристов и регуляторов.

Итог для нас как пользователей и создателей контента простой. Эпоха "икаем в любом ИИ без ограничений" постепенно уходит. Чем ценнее становятся модели, тем больше вокруг них правил, фильтров и политических конфликтов. И к выбору платформы, страны размещения и юридических условий теперь стоит относиться так же внимательно, как к качеству самого алгоритма.

Подписывайтесь на наш Telegram