Claude Code 울트라리뷰 실사용 예시

에이전트 군단이 코드를 검증한다

by lukas

머지 직전이 가장 긴장되는 순간이다.

"이 코드, 진짜 괜찮은 건가?"


리뷰어를 믿는다. 근데 리뷰어도 사람이다. 놓친다. 특히 변경 범위가 클수록, 연결된 파일이 많을수록 단일 패스 리뷰는 한계가 있다.


Anthropic이 그 구간을 정면으로 겨냥한 기능을 냈다.


ultrareview

Claude Code에 /ultrareview 명령어가 추가됐다.

명령어 하나 치면 클라우드에서 리뷰어 에이전트 집단이 뜬다. 이 에이전트들이 현재 브랜치와 기본 브랜치 사이 변경 사항을 병렬로 파헤친다.


기존 /review와 뭐가 다른가.

핵심은 독립 검증이다. 에이전트들이 각자 버그를 발견하면, 그냥 리포트에 올리는 게 아니다. 다른 에이전트가 독립적으로 재현하고 검증한다. 스타일 제안 같은 잡음이 걸러지고, 실제 버그만 남는다.


실제로 이런 상황에 쓸 수 있다.


케이스 1 — AI가 대량으로 생성한 코드

AI한테 코드 짜달라고 하면 그럴듯해 보이는데 엣지케이스를 놓친다. 컨텍스트 밖의 부작용, 암묵적인 의존성 같은 것들. /ultrareview는 그 코드를 다른 에이전트들이 각자 다른 각도에서 뜯어본다.


지금 바로 작가의 멤버십 구독자가 되어
멤버십 특별 연재 콘텐츠를 모두 만나 보세요.

brunch membership
lukas작가님의 멤버십을 시작해 보세요!

AI로 할 수 있는 건 다 해보는 사람. 삶 자체를 자동화 중입니다. 자동매매봇, 부동산트래커, 콘텐츠 제작까지AI 에이전트와 함께 1인 시스템을 만들어가는 과정을 씁니다.

172 구독자

오직 멤버십 구독자만 볼 수 있는,
이 작가의 특별 연재 콘텐츠

  • 최근 30일간 7개의 멤버십 콘텐츠 발행
  • 총 7개의 혜택 콘텐츠
최신 발행글 더보기
매거진의 이전글AI로 제품을 만들면서 발견 한 것