Найти в Дзене
Новостник

Anthropic запускает инструмент Code Review для проверки потока кода, сгенерированного ИИ

Когда речь идет о программировании, обратная связь от коллег крайне важна: она помогает рано находить баги, поддерживать единообразие в кодовой базе и повышать общее качество программного обеспечения. Рост «vibe coding» — использования ИИ-инструментов, которые принимают инструкции на обычном языке и быстро генерируют большие объемы кода, — изменил то, как работают разработчики. Хотя эти инструменты ускорили разработку, они также привнесли новые баги, риски безопасности и плохо понятный код. Решение Anthropic — ИИ-инспектор, предназначенный для того, чтобы ловить баги до того, как они попадут в кодовую базу программного продукта. Новый продукт под названием Code Review был запущен в понедельник в Claude Code. «Мы видим большой рост Claude Code, особенно в корпоративном сегменте, и один из вопросов, который мы постоянно слышим от корпоративных руководителей, такой: теперь, когда Claude Code создает кучу запросов, как мне убедиться, что они будут проверяться эффективным образом?» — сказал

Когда речь идет о программировании, обратная связь от коллег крайне важна: она помогает рано находить баги, поддерживать единообразие в кодовой базе и повышать общее качество программного обеспечения.

Рост «vibe coding» — использования ИИ-инструментов, которые принимают инструкции на обычном языке и быстро генерируют большие объемы кода, — изменил то, как работают разработчики. Хотя эти инструменты ускорили разработку, они также привнесли новые баги, риски безопасности и плохо понятный код.

Решение Anthropic — ИИ-инспектор, предназначенный для того, чтобы ловить баги до того, как они попадут в кодовую базу программного продукта. Новый продукт под названием Code Review был запущен в понедельник в Claude Code.

«Мы видим большой рост Claude Code, особенно в корпоративном сегменте, и один из вопросов, который мы постоянно слышим от корпоративных руководителей, такой: теперь, когда Claude Code создает кучу запросов, как мне убедиться, что они будут проверяться эффективным образом?» — сказала Кэт Ву, руководитель направления продукта в Anthropic.

Pull request’ы — это механизм, который разработчики используют, чтобы отправлять изменения кода на проверку до того, как эти изменения попадут в программный продукт. Ву сказала, что Claude Code резко увеличил объем выдаваемого кода, что увеличило количество проверок pull request’ов и создало узкое место при выпуске кода.

«Code Review — наш ответ на это», — сказала Ву.

Запуск Anthropic Code Review — сначала для клиентов Claude for Teams и Claude for Enterprise в формате исследовательского превью — происходит в переломный момент для компании.

В понедельник Anthropic подала два иска против Министерства обороны в ответ на то, что ведомство обозначило Anthropic как риск для цепочки поставок. Спор, вероятно, приведет к тому, что Anthropic будет сильнее опираться на стремительно растущий корпоративный бизнес: по словам компании, с начала года число подписок выросло в четыре раза. По данным компании, годовой темп выручки (run-rate) Claude Code превысил $2,5 млрд с момента запуска.

«Этот продукт в значительной степени нацелен на наших более крупных корпоративных пользователей — на компании вроде Uber, Salesforce, Accenture, которые уже используют Claude Code и теперь хотят помощи из‑за огромного количества запросов, которое он помогает производить», — сказала Ву.

Она добавила, что руководители разработки могут включить Code Review так, чтобы он работал по умолчанию для каждого инженера в команде. После включения он интегрируется с GitHub и автоматически анализирует pull request’ы, оставляя комментарии прямо в коде с объяснением потенциальных проблем и предложенными исправлениями.

По словам Ву, акцент сделан на исправлении логических ошибок, а не на стиле.

«Это действительно важно, потому что многие разработчики уже видели автоматизированную обратную связь от ИИ и раздражаются, когда она не приводит к немедленным действиям», — сказала Ву. «Мы решили, что будем фокусироваться исключительно на логических ошибках. Так мы ловим самые приоритетные вещи, которые нужно исправлять».

ИИ объясняет свои рассуждения шаг за шагом, описывая, в чем, по его мнению, проблема, почему она может быть опасной и как ее потенциально можно исправить. Система будет помечать серьезность проблем цветами: красный — для самой высокой серьезности, желтый — для потенциальных проблем, которые стоит проверить, и фиолетовый — для проблем, связанных с уже существующим кодом или историческими багами.

Ву сказала, что это делается быстро и эффективно за счет использования нескольких агентов, работающих параллельно: каждый агент рассматривает кодовую базу с другой точки зрения или в другом измерении. Финальный агент агрегирует и ранжирует результаты, удаляя дубликаты и выделяя самое важное.

Инструмент предоставляет легкий анализ безопасности, а руководители инженерных команд могут настраивать дополнительные проверки на основе внутренних лучших практик. Ву сказала, что более недавно запущенный продукт Anthropic Claude Code Security обеспечивает более глубокий анализ безопасности.

Многоагентная архитектура означает, что продукт может быть ресурсоемким, сказала Ву. Как и в других ИИ‑сервисах, ценообразование основано на токенах, а стоимость зависит от сложности кода — хотя Ву оценила, что каждая проверка в среднем будет стоить от $15 до $25. Она добавила, что это премиальный опыт — и необходимый, поскольку ИИ‑инструменты генерируют все больше и больше кода.

«Code Review — это то, что появилось из‑за безумного рыночного спроса», — сказала Ву. «По мере того как инженеры разрабатывают с Claude Code, они видят, что трение при создании новой функции [снижается], и они видят гораздо более высокий спрос на code review. Поэтому мы надеемся, что с этим мы позволим предприятиям создавать быстрее, чем они когда‑либо могли раньше, и с гораздо меньшим количеством багов, чем у них когда‑либо было раньше».