Google triển khai đội quân AI bảo mật mới: "Cần dùng AI để chống lại AI"
Google Cloud vừa công bố loạt tác nhân bảo mật AI mới cùng các công cụ quản lý tương ứng, khẳng định chiến lược "dùng AI để chống AI" trong bối cảnh tội phạm mạng ngày càng tinh vi. Các giải pháp này nhằm chuyển dịch từ phòng thủ do con người dẫn dắt sang mô hình do AI dẫn dắt dưới sự giám sát của con người.

Google triển khai đội quân AI bảo mật mới: "Cần dùng AI để chống lại AI"
Tại hội nghị Google Cloud Next vừa diễn ra, Giám đốc vận hành Google Cloud, ông Francis deSouza, đã tóm tắt chiến lược bảo mật hiện tại của công ty bằng một câu châm ngôn ngắn gọn: "Bạn cần dùng AI để chống lại AI".
Câu nói này không chỉ phản ánh chiến lược của Google mà còn là xu hướng chung của toàn bộ ngành công nghệ an ninh mạng năm 2026. Kế hoạch của Google tập trung vào việc triển khai thêm nhiều tác nhân AI (AI agents) để chủ động săn lùng mối đe dọa, đồng thời đi kèm với các công cụ quản lý để kiểm soát đội quân AI ngày càng mở rộng này.
Chuyển dịch sang chiến lược phòng thủ do AI dẫn dắt
Ông deSouza nhận định rằng chúng ta đã vượt qua giai đoạn phòng thủ do con người dẫn dắt và cả mô hình có sự tham gia của con người. Thay vào đó, tương lai thuộc về "chiến lược phòng thủ do AI dẫn dắt dưới sự giám sát của con người".
"Mô hình trong tương lai của chúng tôi là một đội tàu tác nhân (agentic fleet) thực hiện phần lớn công việc an ninh mạng thường xuyên với tốc độ của máy móc, sau đó được con người giám sát", ông deSouza khẳng định.
Theo ông, lợi thế cạnh tranh của Google nằm ở "ngăn xếp AI đầy đủ" (full AI stack), từ chip, mô hình đến mọi tầng lớp ở giữa. Việc tự xây dựng các mô hình giúp Google nắm bắt sớm các khả năng mới nhất và áp dụng chúng ngay lập tức vào việc tạo ra đội tàu tác nhân bảo mật tinh vi nhất.
Các tác nhân bảo mật mới được ra mắt
Sau khi thử nghiệm nội bộ, Google đã giới thiệu ba tác nhân bảo mật mới cho khách hàng dưới dạng bản xem trước (preview), bổ sung cho các tác nhân chuyên biệt được công bố năm ngoái.
-
Tác nhân Threat Hunting (Săn lùng mối đe dọa): Giúp các đội ngũ bảo mật tìm kiếm các mẫu tấn công mới và hành vi lén lút có thể lọt qua hệ thống phòng thủ. Nó sử dụng thông tin tình báo từ Google Threat Intelligence và các phương pháp tốt nhất của Mandiant để liên tục quét tìm các mối đe dọa đang nổi lên với quy mô vô hạn, nhanh hơn nhiều so với con người.
-
Tác nhân Detection Engineering (Kỹ thuật phát hiện): Giúp tổ chức xác định các lỗ hổng trong phạm vi bảo mật của môi trường IT, sau đó liên tục tạo ra các quy tắc phát hiện mới dựa trên những phát hiện này.
-
Tác nhân Third-Party Context (Ngữ cảnh bên thứ ba): Sẽ sớm được phát hành, tác nhân này quét các quy trình bảo mật hiện có và làm phong phú thêm chúng bằng dữ liệu từ bên thứ ba.
Ngoài ra, tác nhân Triage and Investigation (Phân loại và Điều tra) được công bố tại hội nghị năm ngoái hiện đã chính thức khả dụng (GA). Google cho biết trong 12 tháng qua, tác nhân này đã xử lý hơn 5 triệu cảnh báo và rút ngắn thời gian phân tích thủ công từ 30 phút xuống còn 60 giây.
Khách hàng của Google cũng có thể tự xây dựng các tác nhân bảo mật của riêng mình nhờ sự hỗ trợ của giao thức ngữ cảnh mô hình từ xa (MCP) server cho Google Security Operations, hiện đã khả dụng chung.
Công cụ bảo mật cho chính các tác nhân AI
Tuy nhiên, việc triển khai hàng loạt tác nhân AI cũng đi kèm rủi ro. Để giải quyết vấn đề này, Google và Wiz (công ty khởi nghiệp bảo mật đám mây mà Google đã mua lại vào tháng 3/2025) đã đưa ra các giải pháp nhằm kiểm soát an ninh cho chính các hệ thống AI này.
Wiz đã giới thiệu AI Bill of Materials (AI-BOM), giúp bảo mật mã do AI tạo ra và giảm thiểu rủi ro của "Shadow AI" (AI bóng tối - việc sử dụng công cụ AI không được phê duyệt). Khi các nhà phát triển tạo ra ứng dụng AI mới, họ sử dụng nhiều kỹ năng, thư viện SDK, mô hình và thành phần khác nhau. AI-BOM cung cấp cho đội ngũ bảo mật danh sách đầy đủ các thành phần này.
Wiz hiện cũng tích hợp với nền tảng Loveable, chạy quét bảo mật ngay trong nền tảng này để giúp các nhà phát triển phát hiện lỗ hổng, bí mật và cấu hình sai ngay khi họ viết code bằng AI, thay vì đợi đến sau khi đã hoàn tất.
Ngoài ra, các "hook" bảo mật AI tích hợp dòng (inline AI security hooks) sẽ kết nối trực tiếp vào các môi trường phát triển tích hợp (IDE) và quy trình làm việc của tác nhân để đánh giá các câu lệnh (prompt) và quét đầu ra của AI trước khi mã được commit.
Quản trị và kiểm soát ở quy mô lớn
Để quản lý đội quân tác nhân này, Google đã công bố nền tảng Gemini Enterprise Agent Platform. Nền tảng này cho phép "quản lý quyền truy cập và quản trị AI ở quy mô lớn", gán danh tính duy nhất cho các tác nhân AI. Điều này cho phép chúng hoạt động tự chủ với các luồng xác thực cụ thể, tránh việc hoạt động tự do gây hỗn loạn.
Google cũng ra mắt dịch vụ mới gọi là Agent Gateway, cho phép thực thi chính sách cho tất cả các kết nối từ tác nhân đến tác nhân và từ tác nhân đến công cụ thông qua các giao thức như MCP và Agent2Agent (A2A). Công cụ bảo mật thời gian chạy của Google cho các tương tác mô hình và tác nhân, Model Armor, đã được tích hợp với Agent Gateway.
Bối cảnh hiện tại cho thấy tội phạm mạng cũng đang sử dụng AI để tăng tốc độ và độ tinh vi cho các cuộc tấn công. Một báo cáo trước đây của Google-Mandiant cho thấy thời gian "chuyển giao" tội phạm mạng - nơi một nhóm giành quyền truy cập ban đầu rồi chuyển giao cho một nhóm khác như tống tiền hoặc đánh cắp dữ liệu - đã giảm từ 8 giờ xuống còn 22 giây trong ba năm qua.
Vì vậy, việc các đội ngũ bảo mật cần chuyển sang tốc độ máy móc không phải là lời nói quá đáng, nếu không muốn bị kẻ tấn công vượt mặt.



