Ảo tưởng về việc "có con người trong vòng kiểm soát" trong chiến tranh AI
Việc ứng dụng trí tuệ nhân tạo (AI) vào chiến tranh đang trở thành tâm điểm tranh chấp pháp lý giữa Anthropic và Lầu Năm Góc, đặc biệt khi AI đóng vai trò lớn hơn trong các xung đột hiện nay như với Iran. AI không còn chỉ hỗ trợ phân tích tình báo mà đã trở thành tác nhân chủ động, từ tạo mục tiêu thời gian thực đến điều phối đánh chặn tên lửa và dẫn đường cho các drone tự sát. Cuộc tranh luận về việc giữ con người trong vòng kiểm soát đang che giấu thực tế nguy hiểm rằng các hệ thống này là những "hộp đen" khó hiểu.

Việc ứng dụng trí tuệ nhân tạo (AI) vào chiến tranh đang nằm ở tâm điểm của một cuộc chiến pháp lý giữa Anthropic và Lầu Năm Góc. Tranh luận này trở nên cấp bách hơn bao giờ hết khi AI đang đóng một vai trò lớn hơn trong cuộc xung đột hiện tại với Iran. AI không còn chỉ đơn thuần giúp con người phân tích tình báo. Nó giờ đây đã trở thành một tác nhân chủ động—tạo ra mục tiêu theo thời gian thực, kiểm soát và điều phối việc đánh chặn tên lửa, cũng như dẫn đường cho các đàn drone tự hành gây sát thương.
Phần lớn các cuộc thảo luận công khai về việc sử dụng vũ khí chết người tự hành dựa trên AI đều tập trung vào việc con người nên được giữ "trong vòng kiểm soát" ở mức độ nào. Theo các hướng dẫn hiện tại của Lầu Năm Góc, sự giám sát của con người supposedly cung cấp tính trách nhiệm giải trình, bối cảnh và sự tinh tế, đồng thời giảm thiểu rủi ro bị tấn công mạng.
Các hệ thống AI là những "hộp đen" khó lường
Tuy nhiên, cuộc tranh luận về việc "có con người trong vòng kiểm soát" thực chất chỉ là một sự xao nhãng mang tính an ủi. Mối nguy hiểm ngay lập tức không phải là máy móc sẽ hành động mà không có sự giám sát của con người, mà là con người giám sát hoàn toàn không biết máy móc thực sự đang "nghĩ" gì. Các hướng dẫn của Lầu Năm Góc về cơ bản là khiếm khuyết vì chúng dựa trên giả định nguy hiểm rằng con người hiểu cách các hệ thống AI hoạt động.
Sau nhiều thập kỷ nghiên cứu về ý định trong não bộ con người và gần đây là trong các hệ thống AI, tôi có thể khẳng định rằng các hệ thống AI hiện đại về cơ bản là những "hộp đen". Chúng ta biết đầu vào và đầu ra, nhưng "bộ não" nhân tạo xử lý chúng vẫn mờ ảo. Ngay cả những người tạo ra chúng cũng không thể diễn giải hoàn toàn hoặc hiểu cách chúng hoạt động. Và khi AI đưa ra lý do, những lý do đó không phải lúc nào cũng đáng tin cậy.
Ảo tưởng về sự giám sát của con người trong các hệ thống tự chủ
Trong cuộc tranh luận về sự giám sát của con người, một câu hỏi cơ bản đang bị bỏ qua: Liệu chúng ta có thể hiểu hệ thống AI định làm gì trước khi nó hành động không?
Hãy tưởng tượng một chiếc drone tự hành được giao nhiệm vụ tiêu diệt một nhà máy đạn dược của kẻ thù. Hệ thống chỉ huy và kiểm soát tự động xác định rằng mục tiêu tối ưu là một tòa nhà chứa đạn dược. Nó báo cáo xác suất thành công của nhiệm vụ là 92% vì các vụ nổ phụ của đạn dược trong tòa nhà sẽ phá hủy hoàn toàn cơ sở. Một người vận hành con người xem xét mục tiêu quân sự hợp pháp, thấy tỷ lệ thành công cao và phê duyệt cuộc không kích.
Nhưng điều mà người vận hành không biết là tính toán của hệ thống AI bao gồm một yếu tố ẩn: Ngoài việc tàn phá nhà máy đạn dược, các vụ nổ phụ cũng sẽ gây hư hại nghiêm trọng cho một bệnh viện nhi gần đó. Phản ứng khẩn cấp sau đó sẽ tập trung vào bệnh viện, đảm bảo nhà máy cháy rụi. Đối với AI, việc tối đa hóa sự gián đoạn theo cách này đáp ứng mục tiêu đã cho. Nhưng đối với con người, đó có thể là hành vi phạm tội chiến tranh bằng cách vi phạm các quy tắc về tính mạng dân sự.
Giữ con người trong vòng kiểm soát có thể không cung cấp sự bảo vệ mà mọi người tưởng tượng, bởi vì con người không thể biết ý định của AI trước khi nó hành động. Các hệ thống AI tiên tiến không chỉ thực hiện hướng dẫn; chúng diễn giải các hướng dẫn đó. Nếu các nhà vận hành không xác định mục tiêu của mình đủ cẩn thận—một kịch bản rất có thể xảy ra trong các tình huống áp lực cao—hệ thống "hộp đen" có thể đang làm chính xác những gì nó được bảo và vẫn không hành động theo ý định của con người.
"Khoảng cách về ý định" này giữa các hệ thống AI và người vận hành chính là lý do tại sao chúng ta do dự trong việc triển khai AI hộp đen tiên tiến trong chăm sóc sức khỏe dân sự hoặc kiểm soát không lưu, và lý do việc tích hợp nó vào nơi làm việc vẫn đầy rủi ro—tuy nhiên chúng ta lại đang vội vàng triển khai nó trên chiến trường.
Để làm tồi tệ hơn tình hình, nếu một bên trong cuộc xung đột triển khai vũ khí hoàn toàn tự hành, hoạt động ở tốc độ và quy mô của máy móc, áp lực để duy trì khả năng cạnh tranh sẽ thúc đẩy bên kia cũng phải dựa vào các loại vũ khí này. Điều này có nghĩa là việc sử dụng việc ra quyết định bằng AI ngày càng tự chủ—và mờ ảo—trong chiến tranh chỉ có khả năng tăng lên.
Giải pháp: Nâng cao khoa học về ý định của AI
Khoa học AI phải bao gồm cả việc xây dựng công nghệ AI có khả năng cao và việc hiểu cách công nghệ này hoạt động. Những bước tiến lớn đã được thực hiện trong việc phát triển và xây dựng các mô hình có khả năng hơn, được thúc đẩy bởi mức đầu tư kỷ lục—được Gartner dự báo sẽ tăng lên khoảng 2,5 nghìn tỷ USD chỉ riêng vào năm 2026. Ngược lại, khoản đầu tư vào việc hiểu cách công nghệ hoạt động là vô cùng nhỏ bé.
Chúng ta cần một sự thay đổi mô hình lớn. Các kỹ sư đang xây dựng các hệ thống ngày càng có khả năng hơn. Nhưng việc hiểu cách các hệ thống này hoạt động không chỉ là một vấn đề kỹ thuật—nó đòi hỏi một nỗ lực liên ngành. Chúng ta phải xây dựng các công cụ để đặc tả, đo lường và can thiệp vào ý định của các tác nhân AI trước khi chúng hành động. Chúng ta cần ánh xạ các đường dẫn nội bộ của mạng nơ-ron điều khiển các tác nhân này để chúng ta có thể xây dựng sự hiểu biết nhân quả thực sự về việc ra quyết định của chúng, thay vì chỉ quan sát đầu vào và đầu ra.
Một hướng đi đầy hứa hẹn là kết hợp các kỹ thuật từ tính giải thích cơ chế (phân tích mạng nơ-ron thành các thành phần con người có thể hiểu được) với những hiểu biết, công cụ và mô hình từ khoa học thần kinh về ý định. Một ý tưởng khác là phát triển các AI "kiểm toán viên" minh bạch, có thể giải thích, được thiết kế để giám sát hành vi và các mục tiêu mới nổi của các hệ thống hộp đen có khả năng hơn theo thời gian thực.
Việc phát triển sự hiểu biết tốt hơn về cách AI hoạt động sẽ cho phép chúng ta dựa vào các hệ thống AI cho các ứng dụng quan trọng đối với nhiệm vụ. Nó cũng sẽ giúp việc xây dựng các hệ thống hiệu quả hơn, có khả năng hơn và an toàn hơn trở nên dễ dàng hơn.
Tôi và các đồng nghiệp đang khám phá cách các ý tưởng từ khoa học thần kinh, khoa học nhận thức và triết học—các lĩnh vực nghiên cứu cách ý định nảy sinh trong việc ra quyết định của con người—có thể giúp chúng ta hiểu ý định của các hệ thống nhân tạo. Chúng ta phải ưu tiên các loại nỗ lực liên ngành này, bao gồm sự hợp tác giữa giới học thuật, chính phủ và ngành công nghiệp. Tuy nhiên, chúng ta cần nhiều hơn là chỉ sự khám phá học thuật. Ngành công nghệ công nghệ—và các nhà từ thiện tài trợ cho việc căn chỉnh AI, nỗ lực mã hóa các giá trị và mục tiêu của con người vào các mô hình này—phải định hướng các khoản đầu tư đáng kể cho nghiên cứu tính giải thích liên ngành. Hơn nữa, khi Lầu Năm Góc theo đuổi các hệ thống ngày càng tự chủ, Quốc hội phải bắt buộc kiểm tra nghiêm ngặt ý định của các hệ thống AI, không chỉ hiệu suất của chúng.
Cho đến khi chúng ta đạt được điều đó, sự giám sát của con người đối với AI có thể chỉ là ảo tưởng hơn là một biện pháp bảo vệ.
Uri Maoz là một nhà khoa học thần kinh nhận thức và tính toán chuyên về cách não bộ biến ý định thành hành động. Ông là giáo sư tại Đại học Chapman với các nhiệm vụ tại UCLA và Caltech, và lãnh đạo một sáng kiến liên ngành tập trung vào việc hiểu và đo lường ý định trong các hệ thống trí tuệ nhân tạo (ai-intentions.org).



