Pentagon Hợp Tác Với 7 "Ông Lớn" Công Nghệ Để Ứng Dụng AI Trong Hệ Thống Mật

03 tháng 5, 2026·6 phút đọc

Bộ Quốc phòng Mỹ đã ký kết thỏa thuận với Google, Microsoft, Amazon, Nvidia, OpenAI và các đối tác khác để tích hợp trí tuệ nhân tạo vào các mạng máy tính mật. Hợp tác này nhằm hỗ trợ ra quyết định chiến thuật nhưng cũng dấy lên những lo ngại về đạo đức và sự giám sát của con người.

Pentagon Hợp Tác Với 7 "Ông Lớn" Công Nghệ Để Ứng Dụng AI Trong Hệ Thống Mật

Bộ Quốc phòng Mỹ (Pentagon) vừa thông báo vào thứ Sáu rằng họ đã đạt được thỏa thuận với bảy công ty công nghệ hàng đầu để sử dụng trí tuệ nhân tạo (AI) của họ trong các mạng máy tính mật. Thỏa thuận này cho phép quân đội Mỹ tiếp cận các khả năng được hỗ trợ bởi AI nhằm hỗ trợ tác chiến.

PentagonPentagon

Các công ty bao gồm Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection và SpaceX sẽ cung cấp nguồn lực của mình để giúp "tăng cường khả năng ra quyết định của chiến binh trong các môi trường tác chiến phức tạp", theo Bộ Quốc phòng Mỹ.

Sự vắng mặt của Anthropic

Đáng chú ý trong danh sách này là sự vắng mặt của công ty AI Anthropic. Điều này diễn ra sau cuộc tranh chấp công khai và vụ kiện pháp lý giữa công ty này với chính quyền của Tổng thống Donald Trump liên quan đến đạo đức và an toàn trong việc sử dụng AI trong chiến tranh.

Bộ Quốc phòng Mỹ đã tăng tốc độ áp dụng AI trong những năm gần đây. Theo một báo cáo tháng 3 từ Trung tâm Brennan vì Công lý, công nghệ này có thể giúp quân đội giảm thời gian cần thiết để xác định và tấn công các mục tiêu trên chiến trường, đồng thời hỗ trợ việc tổ chức bảo trì vũ khí và chuỗi cung ứng.

Tuy nhiên, việc sử dụng AI đã gây ra lo ngại rằng nó có thể xâm phạm quyền riêng tư của người Mỹ hoặc cho phép máy móc tự chọn mục tiêu để tấn công. Một trong các công ty ký hợp đồng với Pentagon cho biết thỏa thuận của họ yêu cầu sự giám sát của con người trong một số tình huống cụ thể.

Những lo ngại về việc sử dụng AI trong quân sự

Lo ngại về việc sử dụng AI trong quân sự đã nảy sinh trong cuộc chiến của Israel chống lại các chiến binh tại Gaza và Lebanon, khi các gã khổng lồ công nghệ Mỹ âm thầm hỗ trợ Israel theo dõi mục tiêu. Tuy nhiên, số lượng thường dân thiệt mạng cũng tăng vọt, làm dấy lên lo ngại rằng các công cụ này đã góp phần vào cái chết của những người vô tội.

Helen Toner, giám đốc điều hành lâm thời của Trung tâm An ninh và Công nghệ Mới của Đại học Georgetown, cho biết các hợp đồng mới nhất của Pentagon diễn ra trong bối cảnh lo ngại về việc phụ thuộc quá mức vào công nghệ trên chiến trường.

"Nhiều cuộc chiến tranh hiện đại dựa trên việc mọi người ngồi trong trung tâm chỉ huy phía sau các màn hình, đưa ra các quyết định phức tạp về những tình huống khó hiểu và diễn ra nhanh chóng," bà Toner, cựu thành viên hội đồng quản trị của OpenAI, nhận định. "Các hệ thống AI có thể hữu ích trong việc tóm tắt thông tin hoặc xem xét các nguồn cấp dữ liệu giám sát để cố gắng xác định các mục tiêu tiềm năng."

Tuy nhiên, bà Toner cũng cho rằng các câu hỏi về mức độ tham gia của con người, rủi ro và đào tạo vẫn đang được giải quyết. "Làm thế nào để triển khai nhanh chóng các công cụ này để chúng hiệu quả và mang lại lợi thế chiến lược? Trong khi cũng cần nhận thức rằng bạn phải đào tạo các nhà điều hành và đảm bảo họ biết cách sử dụng công cụ cũng như không quá tin tưởng vào chúng?"

Những tranh cãi xung quanh hợp đồng

Anthropic từng bày tỏ mong muốn có sự đảm bảo trong hợp đồng rằng quân đội sẽ không sử dụng công nghệ của họ cho các vũ khí tự động hoàn toàn và việc giám sát người Mỹ. Bộ trưởng Quốc phòng Pete Hegseth đã tuyên bố rằng công ty phải cho phép bất kỳ việc sử dụng nào mà Pentagon coi là hợp pháp.

Anthropic đã kiện sau khi Tổng thống Donald Trump cố gắng ngăn chặn tất cả các cơ quan liên bang sử dụng chatbot Claude của công ty này, và ông Hegseth tìm cách gán nhãn công ty là rủi ro chuỗi cung ứng.

Trong khi đó, OpenAI đã công bố thỏa thuận với Pentagon vào tháng 3 để thay thế Anthropic bằng ChatGPT trong các môi trường mật. OpenAI xác nhận vào thứ Sáu rằng đây là cùng một thỏa thuận được công bố vào đầu tháng 3.

"Cũng như chúng tôi đã nói khi lần đầu tiên công bố thỏa thuận vài tháng trước, chúng tôi tin rằng những người bảo vệ Hoa Kỳ xứng đáng có những công cụ tốt nhất thế giới," công ty này tuyên bố.

Theo một người quen thuộc với thỏa thuận, hợp đồng của một công ty với Pentagon bao gồm quy định rằng phải có sự giám sát của con người đối với bất kỳ nhiệm vụ nào mà hệ thống AI hoạt động tự chủ hoặc bán tự chủ. Quy định cũng nêu rõ các công cụ AI phải được sử dụng theo cách phù hợp với các quyền hiến pháp và quyền tự do dân sự.

Góc nhìn từ Pentagon

Emil Michael, giám đốc công nghệ của Pentagon, cho biết trên CNBC vào thứ Sáu rằng việc chỉ dựa vào một công ty là thiếu trách nhiệm, thừa nhận sự căng thẳng với Anthropic.

"Và khi chúng tôi biết rằng một đối tác không thực sự muốn làm việc với chúng tôi theo cách chúng tôi muốn, chúng tôi đã đi tiếp và đảm bảo rằng mình có nhiều nhà cung cấp khác nhau," ông Michael nói.

Một số công ty như Amazon và Microsoft đã làm việc với quân đội trong các môi trường mật từ lâu, trong khi những công ty khác như nhà sản xuất chip Nvidia và startup Reflection lại mới tham gia loại công việc này. Cả hai công ty đều tạo ra các mô hình AI mã nguồn mở, mà ông Michael mô tả là ưu tiên để cung cấp một "lựa chọn thay thế của Mỹ" cho sự phát triển AI nhanh chóng của Trung Quốc.

Pentagon cho biết nhân viên quân sự hiện đang sử dụng các khả năng AI thông qua nền tảng chính thức GenAI.mil.

"Chiến binh, nhân viên dân sự và nhà thầu đang đưa các khả năng này vào sử dụng thực tế ngay bây giờ, rút ngắn nhiều nhiệm vụ từ vài tháng xuống còn vài ngày," Pentagon cho biết, thêm rằng các khả năng AI đang phát triển của quân đội sẽ "trao cho chiến binh những công cụ họ cần để hành động tự tin và bảo vệ quốc gia trước mọi mối đe dọa."

Tuy nhiên, bà Toner cảnh báo về hiện tượng "thiên kiến tự động hóa", nơi mọi người có xu hướng giả định rằng máy móc hoạt động tốt hơn thực tế.

Bài viết được tổng hợp và biên soạn bằng AI từ các nguồn tin tức công nghệ. Nội dung mang tính tham khảo. Xem bài gốc ↗