Ảo ảnh quản trị AI: Tại sao 72% doanh nghiệp thiếu kiểm soát và an ninh thực sự?

21 tháng 4, 2026·7 phút đọc

Một khảo sát mới cho thấy 72% tổ chức sử dụng nhiều nền tảng AI "chính", tạo ra lỗ hổng lớn về an ninh và kiểm soát. Mặc dù tự tin vào khả năng quản trị, thực tế nhiều doanh nghiệp đang rơi vào trạng thái hỗn loạn và thiếu cơ chế giám sát hệ thống.

Ảo ảnh quản trị AI: Tại sao 72% doanh nghiệp thiếu kiểm soát và an ninh thực sự?

Một khảo sát mới đây của VentureBeat trên 40 doanh nghiệp lớn đã hé lộ một thực tế đáng báo động: 72% tổ chức tuyên bố có từ hai nền tảng AI trở lên được xác định là lớp "chính" của họ. Điều này không chỉ phản ánh sự hỗn loạn trong chiến lược công nghệ mà còn cho thấy những lỗ hổng nghiêm trọng về an ninh và kiểm soát mà các nhà lãnh đạo đang phải đối mặt.

Khi các cuộc tấn công driven bởi AI ngày càng tinh vi, việc tồn tại nhiều nền tảng AI song song từ các ông lớn như Microsoft Azure, Google, OpenAI, Anthropic hay các công ty phần mềm như Epic, Workday, ServiceNow đã mở rộng bề mặt tấn công của doanh nghiệp một cách nguy hiểm.

Nghịch lý chiến lược: Xây dựng dựa trên nhà cung cấp

Hãy xem xét trường hợp của hệ thống bệnh viện Mass General Brigham (MGB), nhà tuyển dụng lớn nhất tại Massachusetts với 90.000 nhân viên. Năm ngoái, MGB đã phải đóng cửa hàng loạt dự án thử nghiệm (proof of concepts) nội bộ không được kiểm soát khi nhân viên quá hăng hái với các dự án AI.

Theo ông Nallan “Sri” Sriraman, CTO của MGB, thay vì tự xây dựng lớp AI của riêng mình, họ quyết định chờ đợi các gã khổng lồ phần mềm mà họ đang sử dụng hiện thực hóa lộ trình AI của mình. Tuy nhiên, ngay cả khi tận dụng AI từ các nhà cung cấp lớn, đội ngũ của Sriraman vẫn buộc phải xây dựng các giải pháp tạm thời (workarounds) để lấp đầy những thiếu sót.

Ví dụ điển hình là việc MGB đã xây dựng một lớp vỏ bảo vệ tùy chỉnh xung quanh Microsoft Copilot. Mục tiêu là cho phép nhân viên sử dụng AI mà không làm rò rỉ thông tin y tế được bảo vệ (PHI) quay lại nhà cung cấp mô hình ngôn ngữ (LLM) như OpenAI. Đây là một nghịch lý: dù có nhiệm vụ tận dụng AI từ các công ty lớn, họ vẫn phải xây dựng hệ thống để khắc phục những thất bại của chính các nền tảng đó.

Ông Sriraman ví von hiện trạng của các nhà cung cấp hiện nay như câu chuyện "sáu người mù sờ voi": mỗi người đưa ra một câu trả lời khác nhau về hình dáng con voi. VentureBeat gọi tình trạng này là "ảo ảnh quản trị" (governance mirage) — nơi các doanh nghiệp tin rằng mình có đủ khả năng quản trị, nhưng thực tế lại thiếu trách nhiệm giải trình rõ ràng và các rào chắn an ninh cụ thể.

Sự đứt gãy dữ liệu: Sự tự tin so với giám sát hệ thống

Nghiên cứu cho thấy 56% người được hỏi "rất tự tin" rằng họ có thể phát hiện một mô hình AI hoạt động sai lệch. Tuy nhiên, gần một phần ba số người tham gia không có cơ chế hệ thống nào để phát hiện hành vi sai lệch của AI cho đến khi nó xuất hiện thông qua người dùng hoặc các cuộc kiểm toán.

Trong bối cảnh rò rỉ dữ liệu chiếm 34% các sự cố GenAI và chi phí trung bình cho một vụ vi phạm dữ liệu toàn cầu lên tới 4,4 triệu USD, việc chỉ phát hiện rủi ro sau khi đã gây thiệt hại là mặc định đối với quá nhiều công ty.

Hơn nữa, 43% người trả lời cho biết một nhóm trung tâm sở hữu quản trị AI. Con số này nghe có vẻ an tâm, nhưng 23% khác nói rằng quản trị không rõ ràng hoặc đang bị tranh chấp giữa các nhóm. Rào cản lớn nhất trong việc quản trị AI trên nhiều nền tảng chính là "không có chủ sở hữu duy nhất hoặc nhóm chịu trách nhiệm" (29%), ngay sau sự mù mờ của nhà cung cấp.

Hóa đơn ngày thứ hai: Quản lý sự lan rộng, xâm lấn và phụ thuộc

Brian Gracely, Giám đốc cấp cao tại Red Hat, cảnh báo về cái bẫy của những chiến thắng ban đầu có tính đánh lừa. "Ngày thứ không rất, rất dễ dàng", ông nói. "Ngày thứ hai là lúc hóa đơn đến".

Nếu hệ thống kiểm soát của bạn được xây dựng hoàn toàn bên trong bộ công cụ của một nhà cung cấp đám mây, bạn thực sự đang "thu một cái lồng". Ảo giác về tốc độ trong giai đoạn thí điểm thường che giấu nợ kỹ thuật sẽ trở nên rõ ràng ngay khi bạn cố gắng chuyển công việc AI sang một nền tảng khác.

Red Hat cũng chỉ ra rằng các sự cố do "AI bóng tối" (shadow AI) — nơi nhân viên sử dụng các công cụ không được phê duyệt — có chi phí trung bình cao hơn 670.000 USD so với các sự cố tiêu chuẩn. Các tổ chức cuối cùng phải đầu tư nghiêm túc vào một lớp điều phối hoặc nền tảng để biến các công cụ này thành năng suất và an toàn.

Sự trỗi dậy của "sự xâm lấn nền tảng" và Nghịch lý an ninh

Các nhà cung cấp hàng đầu đang chuyển dịch sang các "tác nhân được quản lý" (managed agents), nắm lấy ngày càng nhiều cơ sở hạ tầng AI, đặc biệt là bộ nhớ của phiên tác nhân. Một khi dữ liệu phiên và điều phối sống trong cơ sở dữ liệu độc quyền của nhà cung cấp, bạn không chỉ đang sử dụng một mô hình mà đang sống trong hệ sinh thái của họ.

Điều này dẫn đến "Nghịch lý an ninh": Các nhà cung cấp chịu trách nhiệm lớn nhất cho việc tạo ra rủi ro AI doanh nghiệp lại chính là những người mà doanh nghiệp đang sử dụng để quản lý rủi ro đó. Khảo sát cho thấy 26% doanh nghiệp đang sử dụng OpenAI làm giải pháp an ninh chính — chính là nhà cung cấp có mô hình tạo ra rủi ro mà họ đang cố gắng bảo vệ. Chúng ta đang "nhờ cáo canh gà".

Con đường phía trước: Hướng tới mặt phẳng kiểm soát thống nhất

Ông Sriraman lập luận rằng ngành công nghiệp cần khẩn cấp một "nền tảng quan sát trung tâm" — một phiên bản "Dynatrace cho AI" — cung cấp khả năng hiển thị từ đầu đến cuối, bao gồm phân tích hành vi của tác nhân và cảnh báo leo thang đặc quyền.

Ông cũng cảnh báo về nguy cơ quay lại thế giới "ghế xoay" (swivel chair) phân mảnh, nơi nhân viên phải nhảy liên tục giữa các công cụ AI khác nhau để hoàn thành một quy trình làm việc.

Dữ liệu cho thấy thị trường đã chọn "mặt phẳng kiểm soát lai" — sử dụng giải pháp gốc của nhà cung cấp mô hình cho một số quy trình và các tùy chọn bên ngoài hoặc điều phối tùy chỉnh cho các quy trình khác. Doanh nghiệp không tin tưởng bất kỳ nhà cung cấp nào đủ để trao quyền kiểm soát hoàn toàn, nhưng lại thiếu khả năng kỹ thuật để xây dựng từ đầu.

Kết luận: Nút "đỏ lớn"

Trong các ngành có rủi ro cao như y tế, bất kỳ mặt phẳng kiểm soát hợp lệ nào cũng phải cung cấp khả năng dừng khẩn cấp. "Chúng tôi cần một nút đỏ lớn", ông Sriraman nói. "Tắt nó. Chúng tôi phải có khả năng đó... nếu không, đừng đưa bất cứ thứ gì vào môi trường vận hành".

"Ảo ảnh quản trị" là niềm tin rằng bạn có thể mở rộng quy mô AI mà không cần quyết định ai sở hữu mặt phẳng kiểm soát và an ninh. Nếu bạn nằm trong số 72% tổ chức tuyên bố có nhiều nền tảng "chính", hãy cẩn thận vì bạn có thể không có một chiến lược thực sự, mà chỉ đang có một mâu thuẫn lợi ích. Doanh nghiệp cần sở hữu mặt phẳng kiểm soát của mình với các công cụ an ninh độc lập thay vì chờ đợi một nhà cung cấp chiến thắng vai trò đó cho họ.

Bài viết được tổng hợp và biên soạn bằng AI từ các nguồn tin tức công nghệ. Nội dung mang tính tham khảo. Xem bài gốc ↗