История звучит как сюжет из киберпанка. Американская Anthropic заявляет, что китайские компании DeepSeek, MiniMax и Moonshot выкачали из Claude огромный объем знаний. По их версии, разработчики создали ферму из 24 000+ подставных аккаунтов, прогнали через них больше 16 миллионов диалогов и использовали ответы Claude, чтобы ускорить обучение своих моделей. Формально это называется дистилляция. Одна модель выступает как "учитель" - отвечает на вопросы, объясняет, пишет код. Вторая модель как "ученик" - учится на этих примерах и постепенно копирует стиль и уровень. Такой подход популярен во всей индустрии ИИ. Но есть нюанс: в условиях использования Anthropic прямо запрещено тренировать другие модели на базе ответов Claude и дополнительно не разрешено применять их технологии в Китае. На этом месте история превращается из технической в политическую. Anthropic вместе с OpenAI теперь призывают правительство США и коллег по рынку защитить американские модели от дистилляции китайскими компаниям
Когда ИИ воруют друг у друга: что происходит вокруг Anthropic и китайских моделей
ВчераВчера
1
2 мин