Mô hình AI nguy hiểm nhất của Anthropic bị lộ tay nhóm người dùng trái phép

22 tháng 4, 2026·3 phút đọc

Mô hình AI Mythos của Anthropic, một công cụ an ninh mạng mạnh mẽ được cảnh báo có thể gây nguy hiểm nếu rơi vào tay sai, đã bị một nhóm người dùng trái phép truy cập. Theo Bloomberg, sự cố xảy ra do sự kết hợp giữa quyền truy cập của một nhà thầu bên thứ ba và các công cụ điều tra mạng, cho phép nhóm này sử dụng mô hình trong hai tuần qua.

Mô hình AI nguy hiểm nhất của Anthropic bị lộ tay nhóm người dùng trái phép

Mô hình AI Mythos của Anthropic, một công cụ an ninh mạng mạnh mẽ mà công ty từng cảnh báo có thể gây nguy hiểm nếu rơi vào tay sai, đã bị một nhóm người dùng trái phép truy cập. Theo Bloomberg, sự cố này cho phép một nhóm nhỏ sử dụng công nghệ tiên tiến này trong khoảng thời gian hai tuần.

Mô hình AI của AnthropicMô hình AI của Anthropic

Một thành viên ẩn danh của nhóm, được xác định là "nhà thầu bên thứ ba cho Anthropic", cho biết các thành viên của một diễn đàn trực tuyến riêng đã xâm nhập vào Mythos thông qua sự kết hợp của nhiều chiến thuật. Họ đã tận dụng quyền truy cập của nhà thầu này cùng với "các công cụ điều tra thông tin trên mạng phổ biến".

Mythos là gì và tại sao nó nguy hiểm?

Claude Mythos Preview là một mô hình đa mục đích mới có khả năng nhận diện và khai thác lỗ hổng bảo mật "trong mọi hệ điều hành chính và mọi trình duyệt web chính khi được người dùng chỉ đạo", theo mô tả của Anthropic.

Giao diện và cơ chế hoạt động của AIGiao diện và cơ chế hoạt động của AI

Quyền truy cập chính thức vào mô hình hiện nay bị giới hạn chỉ dành cho một số ít công ty thông qua sáng kiến Project Glasswing, bao gồm các tên tuổi lớn như Nvidia, Google, Amazon Web Services, Apple và Microsoft. Các chính phủ trên thế giới cũng đang để mắt đến công nghệ này. Anthropic hiện không có kế hoạch phát hành công khai mô hình này do lo ngại nó có thể bị vũ khí hóa cho các mục đích xấu.

Cách thức xâm nhập và phản ứng từ Anthropic

Theo báo cáo, mô hình này đã bị truy cập trái phép vào ngày 7 tháng 4, cùng ngày mà Anthropic thông báo việc phát hành Mythos cho một số lượng hạn chế các công ty để thử nghiệm. Nhóm đã xâm nhập thành công bằng cách sử dụng kiến thức về định dạng các mô hình khác của Anthropic, thu được từ vụ rò rỉ dữ liệu gần đây của Mercor, để đưa ra "một phán đoán có căn cứ" về vị trí trực tuyến của Mythos.

Các thành viên của nhóm đã sử dụng Mythos thường xuyên kể từ khi có được quyền truy cập — họ cung cấp các ảnh chụp màn hình và một bản trình diễn trực tiếp mô hình dưới dạng bằng chứng cho Bloomberg. Tuy nhiên, họ reportedly không sử dụng nó cho các mục đích an ninh mạng nhằm cố gắng tránh bị phát hiện bởi Anthropic. Bloomberg cũng cho biết các mô hình AI chưa phát hành khác của Anthropic cũng đã bị nhóm này truy cập.

"Chúng tôi đang điều tra một báo cáo cho thấy có quyền truy cập trái phép vào Claude Mythos Preview thông qua một trong các môi trường của nhà cung cấp bên thứ ba," — một phát ngôn viên của Anthropic cho biết trong một tuyên bố với Bloomberg.

Hiện tại, Anthropic không có bằng chứng cho thấy việc truy cập trái phép này đang ảnh hưởng đến hệ thống của công ty hoặc vượt ra ngoài môi trường của nhà cung cấp bên thứ ba. Sự việc này dấy lên lo ngại lớn về an ninh trong chuỗi cung ứng và quản lý quyền truy cập đối với các mô hình AI thế hệ mới.

Bài viết được tổng hợp và biên soạn bằng AI từ các nguồn tin tức công nghệ. Nội dung mang tính tham khảo. Xem bài gốc ↗