Anthropic столкнулась с ситуацией, которая ещё недавно казалась фантастикой: их знаменитое сложное домашнее задание для кандидатов‑инженеров перестало работать, потому что Claude Opus 4.5 решает его на уровне лучших людей. Итог — компания фактически признала: традиционные технические письменные тесты больше не отделяют «сильных» от «самых сильных», если у кандидата есть доступ к топ‑модели. Поэтому Anthropic выложила старую версию задания в открытый доступ и публично попросила сообщество помочь придумать способы реально оценивать человеческое программирование в эпоху ИИ. Открытый репозиторий: github.com/anthropics/original_performance_takehome
Статья Anthropic о «AI‑устойчивых» оценках: anthropic.com/engineering/AI-resistant-technical-evaluations Что это был за тест и почему он считался идеальным С начала 2024 года команда performance‑инженеров Anthropic использовала take‑home‑задание: кандидат должен был оптимизировать код под симулированный ускоритель, а затем анализировать выполнен