Anthropic запустила Code Review внутри Claude Code — инструмент, который автоматически проверяет pull request’ы и подсвечивает ошибки, появляющиеся из‑за быстрого AI‑генерирования кода. Идея простая: писать стало легче, а вот проверять — сложнее, и именно это теперь тормозит релизы.
Anthropic расширила возможности Claude Code и представила инструмент Code Review, который помогает командам разбирать лавину pull request’ов, появившуюся вместе с «вайбкодингом» — когда разработчик описывает задачу обычными словами, а AI генерирует большой кусок кода.
Сдвиг заметный: скорость написания кода растёт, но вместе с ней растут и риски — от банальных багов до плохо понятных решений и потенциальных уязвимостей. И в итоге узким местом становится не «написать», а «проверить и принять».
Почему именно ревью стало тормозить релизы
Когда AI‑инструменты ускоряют генерацию изменений, команда получает больше pull request’ов за то же время. Это полезно, пока хватает людей, которые успевают просматривать изменения так же внимательно, как раньше. Но в реальности поток растёт быстрее, чем пропускная способность ревью.
Anthropic прямо описывает эту ситуацию как новый тип «бутылочного горлышка»: код «прилетает» быстро, а вот проверка качества начинает задерживать выпуск функциональности.
Что делает Code Review и чем отличается от «придирок к стилю»
Code Review в Claude Code задуман не как инструмент для косметики и форматирования. Фокус — на логических ошибках: на том, что реально может сломать продукт или создать некорректное поведение после попадания в основную ветку.
После подключения инструмент интегрируется с GitHub и работает прямо на уровне pull request’ов: анализирует изменения и оставляет комментарии в PR, где описывает найденные проблемы и предлагает исправления.
- Пояснение по шагам: что именно считается ошибкой, почему это риск и как исправить.
- Маркировка важности цветом: красный — критично, жёлтый — стоит проверить, фиолетовый — проблемы, связанные со старым кодом или «историческими» дефектами.
Как это устроено: несколько агентов вместо одного «универсального критика»
В основе инструмента — мультиагентный подход. Несколько AI‑агентов параллельно смотрят на изменения с разных точек зрения, а затем отдельный агент собирает результаты, убирает дубли и расставляет приоритеты. Так Anthropic пытается добиться более «осмысленного» ревью, а не потока однотипных замечаний.
Безопасность и кастомные правила команды
Code Review умеет выполнять базовый анализ безопасности. А технические лиды могут добавлять собственные проверки под внутренние стандарты — например, запреты на определённые паттерны, требования к обработке ошибок или правила работы с секретами.
Для более глубокого security‑анализа у Anthropic есть отдельный продукт — Claude Code Security.
Кому доступно и сколько стоит
На старте Code Review запущен в режиме research preview и доступен клиентам Claude for Teams и Claude for Enterprise. Компания подчёркивает, что на первом этапе продукт ориентирован на крупные организации, где Claude Code уже генерирует заметный объём PR и ревью начинает «застревать».
Ценообразование зависит от объёма и сложности кода (токен‑модель, как у многих AI‑сервисов). По оценке Anthropic, одна проверка в среднем обойдётся в $15–$25.
Практический смысл для разработки
Если упростить до бытового сценария, Code Review нужен там, где команда уже живёт в режиме: «AI быстро накидал изменения — и теперь люди не успевают их разбирать». В такой схеме инструмент может:
- снизить число очевидных логических ошибок до того, как PR увидит человек;
- помочь ревьюеру быстрее понять, куда смотреть в первую очередь;
- сделать ревью менее утомительным, когда PR’ов стало много, а времени — столько же.
Главная ставка Anthropic — что при росте AI‑генерации кода компаниям понадобится не только «пишущий» помощник, но и «проверяющий», иначе ускорение превратится в ускорение накопления багов.
