Giám đốc AI của AMD chỉ trích Claude Code trở nên "ngu ngốc" và lười biếng sau bản cập nhật mới
Stella Laurenzo, Giám đốc bộ phận AI tại AMD, đã công khai chỉ trích công cụ lập trình Claude Code của Anthropic vì chất lượng suy luận suy giảm nghiêm trọng. Dựa trên dữ liệu từ hàng nghìn phiên làm việc, bà nhận thấy AI này ngày càng "lười biếng" và không đáng tin cậy đối với các nhiệm vụ kỹ thuật phức tạp.

Giám đốc AI của AMD chỉ trích Claude Code trở nên "ngu ngốc" và lười biếng sau bản cập nhật mới
Nếu bạn nhận thấy hiệu suất của Claude Code đang suy giảm đến mức bạn không còn tin tưởng để xử lý các tác vụ phức tạp nữa, thì bạn không đơn độc. Một vấn đề vừa được đăng tải trên GitHub bởi người dùng stellaraccident — được xác định là Stella Laurenzo, Giám đốc bộ phận AI tại nhà sản xuất chip AMD — đã bày tỏ sự thất vọng tương tự.
Theo đó, kể từ sometime vào tháng 2, Claude Code đã hoạt động kém hiệu quả một cách đáng báo động.
"Claude không thể được tin tưởng để thực hiện các nhiệm vụ kỹ thuật phức tạp"
Trong một ticket trên GitHub, Laurenzo khẳng định bà và đội ngũ của mình đã đưa ra kết luận này sau khi tham chiếu đến hàng tháng dữ liệu log từ môi trường làm việc "có độ phức tạp cao và rất nhất quán". Bà cho biết mọi kỹ sư cấp cao trong đội ngũ đều báo cáo những trải nghiệm và giai thoại tương tự.
Dựa trên các bình luận trong chủ đề này, rất nhiều người dùng khác cũng đang cảm thấy tương tự, và những người dùng trên Reddit cũng đã bày tỏ tâm lý chán nản giống nhau.
Dữ liệu cho thấy sự "lười biếng" gia tăng
Để chứng minh cho nhận định của mình, Laurenzo và đội ngũ đã phân tích sâu 6.852 phiên Claude Code, bao gồm 234.760 lệnh gọi công cụ (tool calls) và 17.871 khối suy nghĩ (thinking blocks). Dữ liệu của họ chỉ ra những xu hướng đáng lo ngại:
Số lượng vi phạm stop-hook — chỉ số dùng để bắt lỗi hành vi né tránh trách nhiệm, dừng quá trình suy nghĩ sớm, hoặc hành vi xin phép cho thấy sự "lười biếng" — đã tăng vọt. Con số này tăng từ 0 trước ngày 8 tháng 3 lên trung bình 10 lần mỗi ngày vào cuối tháng trước.
Ngoài ra, số lần Claude đọc lại một đoạn mã trước khi thực hiện thay đổi cũng giảm mạnh, từ trung bình 6,6 lần đọc xuống chỉ còn 2 lần vào cuối tháng 3. Trong cùng khoảng thời gian này, tần suất Claude viết lại toàn bộ tệp tin thay vì chỉ thực hiện các chỉnh sửa cần thiết đã tăng lên rất nhiều.
Nguyên nhân nghi ngờ nằm ở việc che giấu suy luận
Tất cả những dấu hiệu này, theo Laurenzo, đều chỉ ra việc Claude Code không còn suy nghĩ sâu sắc như trước. Sự thay đổi này trùng khớp với việc triển khai tính năng redaction (che giấu) nội dung suy nghĩ trong phiên bản Claude Code 2.1.69 vào đầu tháng 3.
Tính năng redaction hoạt động như một tiêu đề mặc định loại bỏ nội dung suy nghĩ khỏi các phản hồi API của Claude Code, nghĩa là người dùng không còn biết gì về những gì Claude Code thực sự đang làm trong quá trình phản ánh một yêu cầu.
Bằng chứng theo Laurenzo chỉ ra sự suy giảm chung về khả năng suy nghĩ kể từ khi tính năng này được áp dụng.
Khi suy nghĩ nông cạn, mô hình chọn giải pháp rẻ tiền
"Khi suy nghĩ nông cạn, mô hình sẽ mặc định chọn hành động rẻ tiền nhất: sửa mà không đọc, dừng mà không hoàn thành, né tránh trách nhiệm khi thất bại, hoặc chọn giải pháp đơn giản nhất thay vì giải pháp đúng đắn," ticket trên GitHub giải thích. "Đây chính xác là những triệu chứng đã được quan sát thấy."
Vấn đề này dường như tách biệt với sự cố mà người dùng Claude Code từng phàn nàn vào tháng 2, khi phiên bản 2.1.20 khiến bot cắt ngắn giải thích về những gì nó đang đọc trong quá trình suy nghĩ. Khi đó, người dùng chỉ còn lại một dòng ngắn gọn cho biết có bao nhiêu tệp đã được đọc mà không có chi tiết cụ thể nào. Chúng ta có thể hình dung rằng những nhà phát triển đó sẽ không hài lòng chút nào với diễn biến mới này.
Anthropic cũng từng bị chỉ trích vì những đợt tăng đột biến token usage không rõ nguyên nhân khiến nhiều người dùng vượt quá giới hạn, dẫn đến việc không thể sử dụng sản phẩm. Cộng thêm việc rò rỉ mã nguồn gần đây của Claude Code, tình hình của công ty AI này đang không mấy khả quan.
Đòi hỏi sự minh bạch và cảnh báo cạnh tranh
Về phần mình, Laurenzo muốn Anthropic minh bạch về việc liệu họ có đang giảm hoặc giới hạn thinking tokens hay không, điều mà bà cho là nguyên nhân khiến Claude Code tạo ra những kết quả tệ hại. Tối thiểu, bà muốn Claude hiển thị số lượng thinking tokens được sử dụng cho mỗi yêu cầu để người dùng có thể "giám sát xem yêu cầu của họ có nhận được độ sâu suy luận cần thiết hay không".
Laurenzo cũng đề xuất thêm một cấp độ "thinking tối đa" trong các gói dịch vụ của Anthropic dành cho các kỹ sư chạy quy trình làm việc phức tạp. "Mô hình đăng ký hiện tại không phân biệt người dùng cần 200 thinking tokens cho mỗi phản hồi và người dùng cần 20.000 tokens," Giám đốc AI của AMD giải thích. "Người dùng chạy các quy trình kỹ thuật phức tạp sẽ sẵn sàng trả giá cao hơn nhiều để đảm bảo suy nghĩ sâu."
"Chúng tôi đã chuyển sang nhà cung cấp khác đang thực hiện công việc chất lượng vượt trội, nhưng Claude đã tốt với chúng tôi, và chúng tôi để lại vấn đề này với hy vọng Anthropic có thể sửa chữa sản phẩm của mình," Laurenzo giải thích, đồng thời từ chối đi vào chi tiết về công cụ mới mà đội ngũ bà đang sử dụng vì các thỏa thuận bảo mật (NDA). Tuy nhiên, bà đã cảnh báo Anthropic rằng cuộc chơi AI lập trình vẫn còn ở giai đoạn sơ khai và công ty này có nguy cơ đánh mất vị trí dẫn đầu nếu hành vi này tiếp diễn.
"Tôi chỉ muốn thêm rằng, 6 tháng trước, Claude đứng một mình về chất lượng suy luận và thực thi," Laurenzo bổ sung trong một phản hồi trên chủ đề. "Nhưng các đối thủ khác cần được theo dõi và đánh giá rất kỹ. Anthropic không còn là đơn vị duy nhất ở cấp độ năng lực mà Opus từng chiếm giữ."
Cho đến nay, cả Anthropic và Laurenzo đều chưa phản hồi yêu cầu bình luận về câu chuyện này.
Bài viết liên quan

Phần mềm
Anthropic ra mắt Claude Opus 4.7: Nâng cấp mạnh mẽ cho lập trình nhưng vẫn thua Mythos Preview
16 tháng 4, 2026

Công nghệ
Qwen3.6-35B-A3B: Quyền năng Lập trình Agentic, Nay Đã Mở Cửa Cho Tất Cả
16 tháng 4, 2026

Công nghệ
Spotify thắng kiện 322 triệu USD từ nhóm pirate Anna's Archive nhưng đối mặt với bài toán thu hồi
16 tháng 4, 2026
