"Caveman": Kỹ năng giúp Claude nói giọng người hang động, tiết kiệm 75% token

05 tháng 4, 2026·3 phút đọc

"Caveman" là một kỹ năng mới cho Claude Code giúp cắt giảm 75% lượng token tiêu thụ bằng cách biến câu trả lời của AI trở nên ngắn gọn và trực diện. Dù nghe có vẻ hài hước, công cụ này vẫn đảm bảo độ chính xác kỹ thuật hoàn hảo, giúp lập trình viên tiết kiệm chi phí và tăng tốc độ làm việc.

"Caveman": Kỹ năng giúp Claude nói giọng người hang động, tiết kiệm 75% token

Một kỹ năng mới có tên "Caveman" dành cho Claude Code đang thu hút sự chú ý của cộng đồng công nghệ nhờ khả năng tối ưu hóa đáng kinh ngạc. Về cơ bản, công cụ này biến Claude thành một "người hang động", trả lời các câu hỏi kỹ thuật bằng văn phong ngắn gọn, thô sơ nhưng vẫn giữ nguyên 100% tính chính xác.

Trước khi đi vào chi tiết, hãy nhớ câu thần chú của dự án này: "Tại sao dùng nhiều token khi ít token vẫn làm được việc?" (Why use many token when few token do trick).

Vấn đề về lãng phí Token trong AI

Các mô hình ngôn ngữ lớn (LLM) hiện nay thường có xu hướng "nói nhiều", tiêu tốn một lượng lớn token vào các câu từ xã giao, lời dẫn nhập dư thừa và các diễn giải dài dòng. Điều này không chỉ làm tăng chi phí tính toán mà còn giảm tốc độ phản hồi.

Caveman ra đời để giải quyết vấn đề này bằng cách lọc bỏ mọi thứ không cần thiết, chỉ giữ lại cốt lõi kỹ thuật.

So sánh: Trước và Sau khi dùng Caveman

Để thấy rõ sự khác biệt, hãy xem ví dụ về việc sửa lỗi trong React:

Claude thông thường (69 tokens): "Nguyên nhân component React của bạn bị render lại có thể là do bạn đang tạo một tham chiếu đối tượng mới trong mỗi vòng render. Khi bạn truyền một đối tượng trực tiếp (inline object) làm prop, phép so sánh nông (shallow comparison) của React sẽ coi nó là một đối tượng khác mỗi lần, dẫn đến việc kích hoạt render lại. Tôi khuyên bạn nên dùng useMemo để ghi nhớ đối tượng đó."

**Caveman Claude (19 tokens):" "Tham chiếu đối tượng mới mỗi lần render. Inline object prop = tham chiếu mới = render lại. Bọc trong useMemo."

Cùng một nội dung kỹ thuật, cùng một giải pháp, nhưng Caveman Claude giúp tiết kiệm tới 75% số lượng token.

Cơ chế hoạt động: Thô sơ nhưng thông minh

Caveman không làm cho Claude trở nên ngốc hơn, nó chỉ làm cho Claude hiệu quả hơn. Kỹ năng này hoạt động dựa trên các nguyên tắc sau:

  • Tăng tốc và tiết kiệm: Loại bỏ các từ đệm như "Chào bạn", "Tôi rất vui được giúp đỡ", "Có lẽ bạn nên cân nhắc".
  • Giữ nguyên thuật ngữ: Các từ khóa kỹ thuật quan trọng như "polymorphism" hay "authentication middleware" được giữ nguyên xác.
  • Viết code bình thường: Đoạn mã (code block) vẫn được viết đầy đủ và chuẩn chỉnh.
  • Loại bỏ giới từ: Các chữ a, an, the trong tiếng Anh bị loại bỏ triệt để.

Lợi ích thực tế

Theo tác giả Julius Brussee, việc sử dụng chế độ "người hang động" mang lại 4 lợi ích chính:

  1. Tiết kiệm tiền: Giảm 75% token đầu ra đồng nghĩa với việc giảm 75% chi phí vận hành AI.
  2. Tăng tốc độ: Ít token cần tạo ra giúp tốc độ phản hồi nhanh hơn khoảng 3 lần.
  3. Độ chính xác tuyệt đối: Mọi thông tin kỹ thuật quan trọng đều được bảo toàn, chỉ loại bỏ phần "vỏ bọc" văn phong.
  4. Giải trí: Biến các buổi review code nhàm chán trở nên hài hước hơn.

Cách cài đặt và sử dụng

Hiện tại, Caveman có sẵn dưới dạng một kỹ năng (skill) cho Claude Code. Người dùng có thể cài đặt dễ dàng thông qua một dòng lệnh duy nhất:

npx skills add JuliusBrussee/caveman

Hoặc thông qua hệ thống plugin của Claude:

claude plugin marketplace add JuliusBrussee/caveman claude plugin install caveman@caveman

Sau khi cài đặt, bạn có thể kích hoạt chế độ này bằng cách gõ lệnh /caveman, "talk like caveman" hoặc "less tokens please". Để trở lại chế độ bình thường, chỉ cần gõ "stop caveman".

Nếu bạn đang tìm cách tối ưu hóa chi phí sử dụng LLM mà không muốn hy sinh chất lượng kỹ thuật, thì "Caveman" là một giải pháp vừa hiệu quả vừa thú vị để thử nghiệm.

Bài viết được tổng hợp và biên soạn bằng AI từ các nguồn tin tức công nghệ. Nội dung mang tính tham khảo. Xem bài gốc ↗