Google và AWS chia tách kiến trúc AI tác nhân: Kiểm soát so với Thực thi
Kỷ nguyên của việc kết nối thủ công các chuỗi lệnh prompt đang dần khép lại khi các tùy chọn điều phối hệ thống đa tác nhân phức tạp ngày càng nhiều. Google và Amazon Web Services (AWS) đưa ra những câu trả lời khác biệt về việc quản lý AI tác nhân, với Google tập trung vào lớp hệ thống còn AWS ưu tiên tốc độ tại lớp thực thi.

Google và AWS chia tách kiến trúc AI tác nhân: Kiểm soát so với Thực thi
Kỷ nguyên của việc các doanh nghiệp tự vá víu kết nối các chuỗi lệnh prompt và các tác nhân bóng (shadow agents) đang gần kết thúc khi ngày càng có nhiều lựa chọn để điều phối các hệ thống đa tác nhân phức tạp. Khi các tổ chức đưa AI tác nhân vào môi trường sản xuất thực tế, câu hỏi lớn vẫn còn đặt ra là: "Làm thế nào để quản lý chúng?".
Google và Amazon Web Services (AWS) đưa ra những câu trả lời mang tính nền tảng khác nhau, minh họa cho sự chia rẽ trong ngăn xếp AI hiện nay. Cách tiếp cận của Google là chạy quản lý tác nhân trên lớp hệ thống, trong khi phương pháp harness (cơ chế điều phối) của AWS được thiết lập tại lớp thực thi.
Cuộc tranh luận về cách quản lý và kiểm soát đã trở nên sôi nổi hơn trong tháng qua khi các công ty cạnh tranh phát hành hoặc cập nhật nền tảng xây dựng tác nhân của họ—Anthropic với Claude Managed Agents mới và OpenAI với các cải tiến cho Agents SDK—cung cấp cho các đội ngũ phát triển nhiều lựa chọn hơn trong việc quản lý tác nhân.
AWS với các khả năng mới được thêm vào Bedrock AgentCore đang tối ưu hóa cho tốc độ—dựa vào các harness để đưa tác nhân vào sản phẩm nhanh hơn—vẫn đồng thời cung cấp quản lý danh tính và công cụ. Trong khi đó, Gemini Enterprise của Google áp dụng cách tiếp cận tập trung vào quản trị (governance) bằng cách sử dụng mặt phẳng kiểm soát kiểu Kubernetes. Mỗi phương pháp mang đến một cái nhìn thoáng qua về cách các tác nhân chuyển từ những trợ lý thực hiện nhiệm vụ ngắn hạn thành các thực thể tồn tại lâu dài trong một quy trình làm việc.
Cập nhật và sự tích hợp
Để hiểu rõ vị thế của mỗi công ty, hãy xem những gì thực sự mới mẻ.
Google đã phát hành phiên bản mới của Gemini Enterprise, đưa các dịch vụ AI tác nhân doanh nghiệp của mình—Gemini Enterprise Platform và Gemini Enterprise Application—dưới một mái nhà chung. Công ty đã đổi thương hiệu Vertex AI thành Gemini Enterprise Platform, mặc dù họ khẳng định rằng, ngoài việc đổi tên và các tính năng mới, về cơ bản đây vẫn là cùng một giao diện.
"Chúng tôi muốn cung cấp một nền tảng và cánh cửa chính để các công ty có thể truy cập vào tất cả các hệ thống và công cụ AI mà Google cung cấp," Maryam Gholami, giám đốc cấp cao phụ trách quản lý sản phẩm cho Gemini Enterprise, cho biết trong một cuộc phỏng vấn với VentureBeat. "Bạn có thể hình dung rằng Gemini Enterprise Application được xây dựng trên nền tảng Gemini Enterprise Agent Platform, và các công cụ bảo mật cũng như quản trị đều được cung cấp miễn phí như một phần của đăng ký Gemini Enterprise Application."
Mặt khác, AWS đã thêm một harness tác nhân được quản lý mới vào Bedrock AgentCore. Công ty cho biết trong một thông cáo báo chí chia sẻ với VentureBeat rằng harness này "thay thế việc xây dựng ban đầu bằng một điểm khởi đầu dựa trên cấu hình, được hỗ trợ bởi Strands Agents, khung tác nhân mã nguồn mở của AWS."
Người dùng định nghĩa tác nhân làm gì, mô hình nào nó sử dụng và các công cụ nào nó gọi, sau đó AgentCore sẽ thực hiện công việc kết nối tất cả lại với nhau để chạy tác nhân.
Tác nhân AI đang trở thành các hệ thống
Sự chuyển dịch sang các tác nhân tự chủ, tồn tại lâu dài và có trạng thái (stateful) đã buộc phải suy nghĩ lại về cách hoạt động của các hệ thống AI. Khi các tác nhân chuyển từ các nhiệm vụ ngắn hạn sang các quy trình làm việc dài hạn, một lớp lỗi mới đang xuất hiện: sự trôi trạng thái (state drift).
Khi các tác nhân tiếp tục hoạt động, chúng tích lũy trạng thái—bao gồm bộ nhớ, các phản hồi và bối cảnh đang phát triển. Theo thời gian, trạng thái đó trở nên lỗi thời. Các nguồn dữ liệu thay đổi, hoặc các công cụ có thể trả về các phản hồi mâu thuẫn. Kết quả là tác nhân trở nên dễ bị tổn thương trước các sự không nhất quán và độ trung thực giảm đi.
Độ tin cậy của tác nhân trở thành một vấn đề hệ thống, và việc quản lý sự trôi trạng thái này có thể cần nhiều hơn là chỉ thực thi nhanh hơn; nó có thể yêu cầu khả năng hiển thị và kiểm soát.
Chính là điểm thất bại này mà các nền tảng như Gemini Enterprise và AgentCore cố gắng ngăn chặn.
Mặc dù sự thay đổi này đang diễn ra, bà Gholami thừa nhận rằng khách hàng sẽ chi phối cách họ muốn chạy và kiểm soát bất kỳ tác nhân dài hạn nào.
"Chúng tôi sẽ học được rất nhiều từ khách hàng về nơi họ sẽ sử dụng các tác nhân dài hạn, nơi họ chỉ cần giao một nhiệm vụ cho các tác nhân tự chủ này để tự mình thực hiện," bà Gholami nói. "Tất nhiên, có những thủ thuật và sự cân bằng cần phải làm đúng và tác nhân có thể quay lại yêu cầu thêm đầu vào."
Ngăn xếp AI mới
Điều ngày càng trở nên rõ ràng là ngăn xếp AI đang tách thành các lớp riêng biệt, giải quyết các vấn đề khác nhau.
AWS và, ở một mức độ nhất định, Anthropic và OpenAI, đang tối ưu hóa cho việc triển khai nhanh hơn. Claude Managed Agents trừu tượng hóa phần lớn công việc phụ trợ để dựng lên một tác nhân, trong khi Agents SDK hiện bao gồm hỗ trợ cho các sandbox và một harness sẵn có. Các cách tiếp cận này nhằm hạ thấp rào cản để đưa các tác nhân vào hoạt động.
Google cung cấp một bảng điều khiển tập trung để quản lý danh tính, thực thi chính sách và giám sát các hành vi dài hạn.
Các doanh nghiệp có khả năng sẽ cần cả hai.
Theo như một số người thực hành nhìn nhận, doanh nghiệp của họ cần có một cuộc thảo luận nghiêm túc về mức độ rủi ro họ sẵn sàng chấp nhận.
"Bài học chính dành cho các nhà lãnh đạo công nghệ doanh nghiệp đang cân nhắc các công nghệ này tại thời điểm này có thể được diễn đạt như sau: trong khi câu hỏi về harness so với runtime thường được coi là tự xây dựng so với mua sắm, thì về cơ bản đây là vấn đề quản lý rủi ro. Nếu bạn có thể chạy các tác nhân của mình thông qua runtime của bên thứ ba vì chúng không ảnh hưởng đến dòng doanh thu của bạn, thì điều đó ổn. Ngược lại, trong bối cảnh của các quy trình quan trọng hơn, tùy chọn sau sẽ là lựa chọn duy nhất cần xem xét từ góc độ kinh doanh," Rafael Sarim Oezdemir, trưởng bộ phận tăng trưởng tại EZContacts, cho biết trong một email gửi tới VentureBeat.
Việc lặp lại nhanh cho phép các nhóm thử nghiệm và khám phá những gì tác nhân có thể làm, trong khi kiểm soát tập trung thêm một lớp tin cậy. Những gì doanh nghiệp cần là đảm bảo họ không bị khóa vào các hệ thống được thiết kế thuần túy cho một cách duy nhất để thực thi tác nhân.
Bài viết liên quan

Phần mềm
Nợ kỹ thuật, nợ nhận thức và nợ ý định: Tác động của AI lên phát triển phần mềm
22 tháng 4, 2026

Công nghệ
Trải nghiệm tính năng dòng thời gian tùy chỉnh mới của X được hỗ trợ bởi AI Grok
22 tháng 4, 2026

Công nghệ
Elon Musk thừa nhận hàng triệu xe Tesla sẽ không bao giờ có tính năng FSD không giám sát
22 tháng 4, 2026
