Anthropic chặn công cụ OpenClaw sử dụng gói đăng ký Claude do quá tải

06 tháng 4, 2026·4 phút đọc

Anthropic đã quyết định chặn các công cụ bên thứ ba như OpenClaw truy cập vào gói đăng ký Claude do nhu cầu quá cao gây áp lực lên hệ thống. Người dùng hiện phải trả phí cho việc sử dụng thêm hoặc chuyển sang API để tiếp tục sử dụng các công cụ này.

Anthropic chặn công cụ OpenClaw sử dụng gói đăng ký Claude do quá tải

Anthropic đang thực hiện các biện pháp mạnh tay để kiểm soát tải trên hệ thống của mình, bao gồm việc chặn các công cụ bên thứ ba như OpenClaw sử dụng gói đăng ký dịch vụ Claude. Quyết định này được đưa ra sau khi công ty gặp khó khăn trong việc đáp ứng nhu cầu ngày càng tăng từ người dùng, dẫn đến các sự cố gián đoạn dịch vụ gần đây.

OpenClaw là một công cụ tác nhân AI (AI agent) mã nguồn mở được thiết kế để hoạt động tự chủ, tuy nhiên, sự phổ biến của nó đã gây ra những áp lực lớn đối với hạ tầng của Anthropic. Vào thứ Hai vừa qua, trang trạng thái của Anthropic đã ghi nhận sự cố "ngừng hoạt động một phần" trên Claude.ai, bao gồm cả phiên bản máy tính và di động, làm giảm thời gian hoạt động (uptime) trong 90 ngày qua xuống còn 98,82%.

Nguyên nhân và các biện pháp kỹ thuật

Một phát ngôn viên của Anthropic cho biết họ chưa xác định ngay lập tức nguồn gốc của sự cố, nhưng sự gián đoạn đã được giải quyết nhanh chóng. Tuy nhiên, để ngăn chặn các vấn đề tương tự trong tương lai, công ty đã thay đổi chính sách định giá đối với các công cụ bên thứ ba.

Boris Cherny, người đứng đầu mảng Claude Code, thông báo rằng bắt đầu từ ngày 4 tháng 4, các công cụ bên thứ ba sẽ không còn được phép sử dụng gói đăng ký Claude. Thay vào đó, việc sử dụng các công cụ này sẽ được tính vào "gói sử dụng thêm" (extra usage), nghĩa là người dùng sẽ phải trả thêm phí ngoài mức đăng ký cố định hàng tháng.

"Hệ thống của chúng tôi được tối ưu hóa cao độ cho một loại khối lượng công việc cụ thể, và để phục vụ càng nhiều người càng tốt với các mô hình thông minh nhất, chúng tôi đang tiếp tục tối ưu hóa điều đó," Cherny giải thích.

Mặc dù thừa nhận là người hâm mộ của mã nguồn mở và thậm chí đã đóng góp mã để cải thiện hiệu quả của OpenClaw, Anthropic cho biết các công cụ này tạo ra "áp lực quá mức" lên hệ thống. Công ty khẳng định cần ưu tiên khách hàng sử dụng các sản phẩm cốt lõi và API chính thức của họ.

Vấn đề về chi phí và lợi nhuận

Vấn đề sâu xa nằm ở sự chênh lệch giữa mô hình định giá đăng ký cố định và chi phí thực tế của việc sử dụng token. Với mức phí 20 USD/tháng, người dùng đăng ký có thể tạo ra lượng token trị giá khoảng 236 USD theo giá niêm yết. Nhiều nhà phát triển đã tận dụng các công cụ bên thứ ba để tối đa hóa lợi ích này, sử dụng Claude với mức giá rẻ hơn nhiều so với việc mua trực tiếp qua API.

Đây không phải là trường hợp đầu tiên trong ngành. Vào tháng 2, Google cũng đã thực hiện hành động tương tự để thực thi các điều khoản dịch vụ liên quan đến môi trường phát triển AI của họ, ngăn chặn việc sử dụng phần mềm bên thứ ba để "đi nhờ" xác thực OAuth và truy cập vào các dịch vụ backend.

Đền bù và các lựa chọn thay thế

Để giảm bớt sự bất mãn từ cộng đồng nhà phát triển trước quyết định được thông báo khá gấp gáp này, Anthropic đang tặng người dùng một tháng tín dụng sử dụng thêm dựa trên gói hàng tháng của họ. Ngoài ra, công ty cũng giảm giá 30% cho các gói sử dụng thêm. Nếu không hài lòng, khách hàng có thể hủy kế hoạch và nhận hoàn tiền.

Người dùng vẫn có thể sử dụng Claude với các công cụ bên thứ ba thông qua việc mua gói sử dụng thêm hoặc sử dụng khóa API. Anthropic nhấn mạnh rằng các gói đăng ký vẫn áp dụng bình thường cho Claude.ai, Claude Code và Cowork.

Trong bối cảnh nhu cầu về AI tiếp tục tăng trưởng, dung lượng máy chủ dự kiến sẽ vẫn là một nguồn lực khan hiếm. Bloomberg gần đây báo cáo rằng hơn một nửa số trung tâm dữ liệu được lên kế hoạch khai trương tại Mỹ trong năm nay sẽ phải đối mặt với sự chậm trễ, khiến việc quản lý dung lượng trở nên quan trọng hơn bao giờ hết đối với các công ty như Anthropic.

Bài viết được tổng hợp và biên soạn bằng AI từ các nguồn tin tức công nghệ. Nội dung mang tính tham khảo. Xem bài gốc ↗