Добавить в корзинуПозвонить
Найти в Дзене
Машинное обучение

🙂 Claude оказался в списке топ-контрибьюторов репозитория OpenAI и в сети это поняли неправильно

В сети Х завирусился скриншот со страницы репозитория Рarameter-golf, на котором среди топовых контрибьюторов значился Claude. Пост набрал больше 100 тыс. просмотров. Твиттерские решили, что OpenAI пишет код на продукте конкурента. Parameter Golf - это открытый конкурс, запущенный OpenAI 18 марта. Задача: обучить лучшую языковую модель, которая вместе с кодом тренировки помещается в 16 МБ и обучается не дольше 10 минут на восьми GPU H100. Качество оценивают по степени сжатия валидационного датасета FineWeb (метрика bits per byte: чем ниже, тем лучше. Базовый показатель - 1,2244 BPB, лучший рекордный результат уже опустился до 1,0541. В этом челлендже участник форкает репозиторий, улучшает модель и присылает пулл-реквест с кодом, логами и описанием подхода. Принятый PR вливается в основную ветку - так и набирается статистика контрибьюторов на GitHub. Claude попал в рейтинг из-за того, что некоторые участники конкурса использовала Claude Code для подготовки решений. Claude Code ав

🙂 Claude оказался в списке топ-контрибьюторов репозитория OpenAI и в сети это поняли неправильно.

В сети Х завирусился скриншот со страницы репозитория Рarameter-golf, на котором среди топовых контрибьюторов значился Claude. Пост набрал больше 100 тыс. просмотров. Твиттерские решили, что OpenAI пишет код на продукте конкурента.

Parameter Golf - это открытый конкурс, запущенный OpenAI 18 марта.

Задача: обучить лучшую языковую модель, которая вместе с кодом тренировки помещается в 16 МБ и обучается не дольше 10 минут на восьми GPU H100.

Качество оценивают по степени сжатия валидационного датасета FineWeb (метрика bits per byte: чем ниже, тем лучше.

Базовый показатель - 1,2244 BPB, лучший рекордный результат уже опустился до 1,0541.

В этом челлендже участник форкает репозиторий, улучшает модель и присылает пулл-реквест с кодом, логами и описанием подхода. Принятый PR вливается в основную ветку - так и набирается статистика контрибьюторов на GitHub.

Claude попал в рейтинг из-за того, что некоторые участники конкурса использовала Claude Code для подготовки решений.

Claude Code автоматически добавляет себя соавтором коммитов через заголовок «Co-authored-by» в Git. Но если посмотреть подробней, реальный вклад Claude - 2 коммита с добавлением около 4500 строк и нулем удалений.

У других контрибьюторов из верхней части списка при том же числе коммитов десятки тысяч строк: объемные логи и веса моделей.

Один из участников конкурса описал, как без опыта в ML создавал решение в тандеме Claude и Codex: Claude генерировал архитектурные гипотезы, Codex ограничивал их практическими рамками, а человек принимал финальные решения.

В качестве основной идеи агенты выбрали переиспользование слоев через FiLM conditioning и добавили хэширование триграмм, выдав весьма приличный результат в 1.1634 BPB при весе модельки всего 15.34, причем по ходу дела обнаружилось, что модный Test-Time Training адски ломает рекуррентные сетки.

Так что это история не о том, что OpenAI использует Claude. Она о том, что ИИ-ассистенты слишком быстро стали настолько обыденным инструментом разработки, что люди еще не привыкли отличать вклад машины от вклада человека.

#news #ai #ml