Anthropic giới thiệu tính năng Review Code đa tác nhân cho Claude Code
Anthropic vừa tung ra tính năng Code Review mới cho Claude Code, sử dụng hệ thống đa tác nhân để phân tích các thay đổi trong pull request. Công cụ này tự động chạy nhiều AI reviewer song song nhằm tìm lỗi và đánh giá mức độ nghiêm trọng của vấn đề.

Anthropic đã chính thức giới thiệu tính năng Code Review mới cho công cụ Claude Code, mang đến khả năng review pull request dựa trên hệ thống đa tác nhân (agent-based). Hiện tại, tính năng này đang ở giai đoạn nghiên cứu thử nghiệm và dành riêng cho người dùng các gói Team và Enterprise.
Hệ thống sẽ tự động kích hoạt khi một pull request được mở, sau đó triển khai nhiều tác nhân AI để kiểm tra các thay đổi một cách song song. Theo Anthropic, các tác nhân này sẽ tìm kiếm các lỗi tiềm ẩn, xác minh lại kết quả để giảm thiểu báo cáo dương tính giả (false positives), và xếp hạng vấn đề theo mức độ nghiêm trọng trước khi đăng tải bản tóm tắt và các nhận xét trực tiếp trên pull request.
Số lượng tác nhân được phân công sẽ thay đổi tùy theo quy mô và độ phức tạp của pull request. Những thay đổi lớn và phức tạp sẽ được phân tích sâu hơn, trong khi các thay đổi nhỏ sẽ được review nhanh hơn. Anthropic cho biết thời gian review trung bình của hệ thống là khoảng 20 phút.
Nội bộ, Anthropic đã áp dụng hệ thống này cho hầu hết các pull request của mình trong vài tháng qua. Công ty báo cáo rằng tỷ lệ nhận xét mang tính thực chất đã tăng từ 16% lên 54% sau khi áp dụng công cụ này. Với các pull request có hơn 1.000 dòng thay đổi, 84% đã phát hiện ra vấn đề, trung bình 7,5 lỗi mỗi lần. Đối với các pull request dưới 50 dòng, tỷ lệ phát hiện là 31%, trung bình 0,5 lỗi.
Theo Anthropic, ít hơn 1% các phát hiện được đánh dấu là không chính xác bởi các kỹ sư trong quá trình sử dụng nội bộ. Công ty khẳng định công cụ này được thiết kế để hỗ trợ chứ không thay thế người review, và hệ thống không tự động phê duyệt các pull request.
Phản ứng từ cộng đồng công nghệ nhìn chung là tích cực, với các nhà phát triển đánh giá cao độ sâu của phân tích và cách tiếp cận đa tác nhân so với các công cụ review AI nhẹ nhàng hơn. Tuy nhiên, một số người lo ngại về giá cả có thể hạn chế việc áp dụng cho các nhóm nhỏ, cũng như tính thực tế của thời gian review 20 phút và chi phí 15–25 USD cho mỗi pull request trong các quy trình kỹ thuật có khối lượng lớn.
Nhà nghiên cứu AI Nir Zabari nhận định:
"Nghe có vẻ hứa hẹn, nhưng nó không chia sẻ bất kỳ chi tiết kỹ thuật nào (ví dụ như mỗi tác nhân song song tập trung vào cái gì) hay giải thích tại sao nó tốt hơn các công cụ khác, ngoài việc nói rằng nó tốn 15–25 USD. Nói cách khác, đáng để mã nguồn mở các tính năng như vậy..."
Trong khi đó, người dùng @rohini đặt câu hỏi:
"Claude viết code và Claude cũng chính là người review code đó? Điều này thậm chí không đáp ứng được tiêu chuẩn an toàn tối thiểu."
Việc ra mắt tính năng này đưa Anthropic cạnh tranh trực tiếp hơn trên thị trường review code bằng AI, nơi đã có các công cụ như GitHub Copilot và CodeRabbit. Điểm khác biệt chính của Anthropic nằm ở kiến trúc review đa tác nhân và sự tập trung vào phân tích sâu hơn, chậm hơn thay vì các lượt review nhanh và hời hợt.
Bài viết liên quan

Phần mềm
Anthropic ra mắt Claude Opus 4.7: Nâng cấp mạnh mẽ cho lập trình nhưng vẫn thua Mythos Preview
16 tháng 4, 2026

Công nghệ
Qwen3.6-35B-A3B: Quyền năng Lập trình Agentic, Nay Đã Mở Cửa Cho Tất Cả
16 tháng 4, 2026

Công nghệ
Spotify thắng kiện 322 triệu USD từ nhóm pirate Anna's Archive nhưng đối mặt với bài toán thu hồi
16 tháng 4, 2026
