OpenAI đề xuất đánh thuế AI để bảo vệ người lao động, nhưng Washington có tin không?

08 tháng 4, 2026·4 phút đọc

OpenAI công bố báo cáo chính sách về tác động của AI đối với lực lượng lao động Mỹ, đề xuất đánh thuế lợi nhuận vốn và rút ngắn tuần làm việc. Tuy nhiên, sự hoài nghi từ giới chức Washington đang gia tăng do lịch sử "nói một đằng làm một nẻo" của CEO Sam Altman và công ty.

OpenAI đề xuất đánh thuế AI để bảo vệ người lao động, nhưng Washington có tin không?

OpenAI vừa công bố một bản báo cáo chính sách dài 13 trang bàn về tác động của trí tuệ nhân tạo (AI) đối với lực lượng lao động Mỹ. Công ty cũng đưa ra giải pháp mà họ tin là tối ưu: đánh thuế lợi nhuận vốn cao hơn đối với các tập đoàn thay thế nhân viên bằng AI và sử dụng số tiền đó để xây dựng lưới an sinh xã hội rộng lớn hơn.

OpenAI và các đề xuất chính sách mớiOpenAI và các đề xuất chính sách mới

Các giải pháp cụ thể mà OpenAI đề xuất bao gồm việc thiết lập một quỹ tài sản công, áp dụng tuần làm việc 4 ngày được tài trợ bởi "cổ tức hiệu quả", cùng các chương trình của chính phủ giúp chuyển đổi người lao động sang những công việc "tập trung vào con người". Tất cả đều được tài trợ từ sự dồi dào mà AI mang lại.

Tuy nhiên, thời điểm công bố báo cáo này vô cùng trớ trêu khi nó ra mắt đúng ngày tạp chí The New Yorker đăng tải bài phóng sự điều tra chi tiết về lịch sử nói dối của Sam Altman. Bài viết cáo buộc CEO của OpenAI đã nói dối với các nhà đầu tư, nhân viên, hội đồng quản trị và quan trọng nhất là các nhà lập pháp đang cố gắng quy định AI. Điều này càng củng cố thêm câu chuyện cũ: OpenAI có thể hô hào các giá trị lý tưởng, nhưng sẽ nhanh chóng bỏ qua chúng vì lợi ích tài chính và chính trị.

Sự hoài nghi từ Washington

Xét riêng lẻ, bản báo cáo này được đánh giá là tích cực cho việc quản trị AI nói chung, bởi nó đưa ra những ý tưởng mới vào thảo luận chính trị về công nghệ mới nổi. Tuy nhiên, các nhà phê bình cho rằng trừ khi chính sách và ảnh hưởng chính trị của công ty được hiện thực hóa đúng như lời hứa, thì nó cũng chỉ là một mảnh giấy vô nghĩa.

Giao diện báo cáo chính sách của OpenAIGiao diện báo cáo chính sách của OpenAI

Malo Bourgon, CEO của Viện Nghiên cứu Trí tuệ Máy móc (MIRI), nhận định: "Tôi đoán là có những người trong đội ngũ thực sự quan tâm đến vấn đề này, họ đã suy nghĩ rất kỹ về tài liệu và tự hào về nó, ngay cả khi nó không giải quyết tất cả các câu hỏi mà tôi mong muốn. Nhưng vẫn còn câu hỏi: Những người đó có sẽ tìm thấy mình trong tình thế giống như nhiều người trước đây tại OpenAI không - những người từng nghĩ công ty có những giá trị nhất định, nhưng sau đó phát hiện ra không phải vậy và trở nên thất vọng rồi rời đi?"

Lịch sử "hai mặt" trong vận động hành lang

Khi OpenAI đưa ra các đề xuất chính sách, đáng lẽ chúng ta cần nhìn lại lịch sử của công ty với chính phủ. Altman từng là một trong những CEO lớn đầu tiên kêu gọi công khai sự giám sát của liên bang đối với AI, thậm chí còn đề xuất một cơ quan liên bang để giám sát các mô hình nâng cao vào năm 2023. Tuy nhiên, trong bóng tối, ông lại làm việc để ngăn chặn các đạo luật chứa đựng các đề xuất an toàn của chính mình.

Một trợ lý lập pháp cấp tiểu bang tại California đã cáo buộc OpenAI tham gia vào "hành vi gian lận ngày càng tinh vi" để giết chết dự luật an toàn AI năm 2023 mà công ty đang công khai ủng hộ. Đến năm 2025, công ty đã gửi trát hầu những người ủng hộ một dự luật an toàn AI cấp tiểu bang, với nỗ lực mà một người ủng hộ mô tả là "về cơ bản dọa nạt họ để họ im lặng".

Nathan Calvin, tổng cố vấn pháp lý tại Encode, một tổ chức phi lợi nhuận về chính sách AI, cho biết những gì ông thấy từ sự tham gia của OpenAI vào chính sách và các vấn đề chính phủ là "tệ hại". Mặc dù ông tin rằng đội ngũ viết đề xuất của OpenAI, chủ yếu từ phía nghiên cứu an toàn kỹ thuật, đã hành động với thiện chí, ông vẫn giữ quan điểm thận trọng.

"Liệu những người đó có tiếp tục tham gia khi chúng ta chuyển từ các nguyên tắc chính sách chung sang nhiều cách khác mà vận động hành lang và ảnh hưởng của chính phủ thực sự diễn ra? Một phần của tôi hy vọng vậy, nhưng một phần lớn cũng khá hoài nghi về việc liệu điều đó có xảy ra hay không," Nathan Calvin chia sẻ.

Đối với giới quan sát, bài học rút ra là rõ ràng: Trong khi các ý tưởng của OpenAI về tương lai kinh tế của AI có thể đáng được xem xét, nhưng niềm tin vào cam kết của công ty vẫn là rào cản lớn nhất cần vượt qua.

Bài viết được tổng hợp và biên soạn bằng AI từ các nguồn tin tức công nghệ. Nội dung mang tính tham khảo. Xem bài gốc ↗