Mô hình mã nguồn mở có thể tìm lỗi hiệu quả không kém Anthropic Mythos
Tại hội nghị Black Hat Asia, Ari Herbert-Voss, CEO của startup bảo mật RunSybil, khẳng định các mô hình AI mã nguồn mở hoàn toàn có thể đạt được hiệu quả tìm lỗi tương đương Anthropic Mythos. Theo ông, việc kết hợp nhiều mô hình cùng với sự giám sát của chuyên gia con người sẽ giúp nâng cao an ninh mạng mà không đe dọa việc làm.

Mô hình mã nguồn mở có thể tìm lỗi hiệu quả không kém Anthropic Mythos
Tại hội nghị Black Hat Asia diễn ra ở Singapore hôm nay, Ari Herbert-Voss, CEO của startup bảo mật RunSybil và cũng là nhân viên an ninh đầu tiên của OpenAI, đã đưa ra một nhận định đáng chú ý. Ông cho rằng các mô hình trí tuệ nhân tạo (AI) mã nguồn mở hoàn toàn có khả năng phát hiện lỗi bảo mật hiệu quả tương đương với Anthropic Mythos.
Herbert-Voss nhận định rằng Mythos thực sự xuất sắc trong việc tìm ra cả những lỗi "nông" — những lỗi đã được mô tả rõ ràng và dễ xác thực — lẫn các lỗ hổng phức tạp hơn. Tuy nhiên, ông chỉ ra rằng khả năng này xuất phát từ hiện tượng "quy mô siêu tuyến tính" (supralinear scaling). Trong khi các nhà nghiên cứu trước đây giả định rằng năng lực của Mô hình ngôn ngữ lớn (LLM) sẽ cải thiện theo đường tuyến tính, bằng chứng hiện nay cho thấy một mô hình được đào tạo với gấp đôi lượng dữ liệu, sức mạnh tính toán và thời gian có thể tạo ra kết quả gấp bốn lần khả năng.
Ông cũng gợi ý rằng quy mô siêu tuyến tính có thể mang lại những hệ số nhân tốt hơn nữa, nhưng không thể tiết lộ chi tiết do các thỏa thuận bảo mật.
Mặc dù Anthropic vẫn kiểm soát chặt chẽ quyền truy cập vào Mythos vì lo ngại về việc bị lạm dụng, Herbert-Voss lập luận rằng cả những kẻ tấn công và những người bảo vệ đều có thể đạt được kết quả tương đương bằng cách sử dụng các mô hình mã nguồn mở. Cách tiếp cận này bao gồm việc xây dựng một hệ thống kết nối (scaffolding) để vận hành nhiều mô hình cùng lúc. Phương pháp này còn giúp cải thiện khả năng phòng thủ nhiều lớp (defense in depth), vì các mô hình khác nhau có xu hướng phát hiện ra các lỗi khác nhau — một biện pháp hữu ích để phòng chống các điểm mù của bất kỳ mô hình đơn lẻ nào.
Chi phí cũng là một yếu tố thúc đẩy khác. Việc xây dựng và vận hành Mythos rất tốn kém và mô hình này có thể không bao giờ được công khai rộng rãi. Do đó, các giải pháp thay thế mã nguồn mở không chỉ khả thi mà còn là cần thiết đối với nhiều tổ chức.
Herbert-Voss cảm thấy chuyên môn của con người vẫn rất cần thiết để điều phối các mô hình mã nguồn mở nhằm chúng cùng nhau đạt được hiệu suất cấp độ Mythos, cũng như để đánh giá các báo cáo lỗi do AI tạo ra. Ông lưu ý rằng kỹ thuật fuzzing — phương pháp kiểm tra bằng cách tiêm dữ liệu ngẫu nhiên hoặc gần ngẫu nhiên vào phần mềm để xem liệu nó có tạo ra lỗi hay không — cũng tạo ra quá nhiều cảnh báo, khiến khối lượng công việc của con người tăng lên.
Những "thợ săn lỗi" bằng AI hiện nay cũng tạo ra vấn đề tương tự, và ông dự đoán tình trạng này sẽ tiếp diễn. Vì vậy, Herbert-Voss tin rằng các nhân viên an ninh thông tin (infosec) vẫn sẽ có rất nhiều việc để làm trong tương lai gần. Động lực kinh tế để sử dụng AI — ai đó phải trả tiền cho tất cả các GPU và trung tâm dữ liệu đó — sẽ đóng vai trò như một yếu tố thúc đẩy, buộc các đội ngũ an ninh phải áp dụng AI và kết quả là cải thiện công tác phòng thủ chủ động và phản ứng của họ.
Bài viết liên quan

Công nghệ
Dù được thiết kế lại, điện thoại Trump vẫn là một ẩn số chưa có thực
24 tháng 4, 2026

Công nghệ
Đạo luật quyền riêng tư mới của đảng Cộng hòa bị cảnh báo có thể 'tệ hơn cả không có tiêu chuẩn'
24 tháng 4, 2026

Công nghệ
Locked Shields 2026: 41 quốc gia tham gia bài tập phòng thủ mạng lớn nhất thế giới
24 tháng 4, 2026
