Anthropic lên án dự luật miễn trách nhiệm AI cực đoan do OpenAI ủng hộ
Anthropic và OpenAI đang có bất đồng gay gắt về một dự luật tại Illinois nhằm bảo vệ các phòng thí nghiệm AI khỏi trách nhiệm pháp lý trong các thảm họa quy mô lớn. Trong khi OpenAI ủng hộ đạo luật này, Anthropic cho rằng nó tạo ra một "tấm khiên miễn trách nhiệm" nguy hiểm, cho phép các công ty thoát khỏi nghĩa vụ bảo vệ công chúng.

Anthropic đã chính thức lên tiếng phản đối một dự luật được đề xuất tại bang Illinois và được OpenAI ủng hộ, đạo luật này sẽ tạo ra tấm khiên bảo vệ các phòng thí nghiệm AI trước trách nhiệm pháp lý nếu hệ thống của họ gây ra thiệt hại quy mô lớn, như thương vong hàng loạt hoặc thiệt hại tài sản trên 1 tỷ USD.
Cuộc tranh luận xung quanh dự luật SB 3444 đang vạch ra những ranh giới mới giữa Anthropic và OpenAI về cách thức nên quản lý công nghệ AI. Mặc dù các chuyên gia về chính sách AI nhận định rằng cơ hội thông qua của đạo luật này là khá mong manh, nó đã phơi bày những chia rẽ chính trị giữa hai phòng thí nghiệm AI hàng đầu của Mỹ. Sự khác biệt này có thể trở nên ngày càng quan trọng khi các công ty đối thủ tăng cường hoạt động vận động hành lang trên khắp cả nước.
Cuộc chiến vận động hành lang đằng sau hậu trường
Theo các nguồn tin nắm rõ vấn đề, Anthropic đã âm thầm vận động thượng nghị sĩ bang Bill Cunningham—người bảo trợ dự luật SB 3444—và các nhà lập pháp khác của Illinois để thực hiện những thay đổi lớn đối với dự luật hoặc hủy bỏ nó hoàn toàn. Trong một email gửi cho WIRED, người phát ngôn của Anthropic đã xác nhận sự phản đối của công ty đối với SB 3444 và cho biết họ đã có những cuộc trò chuyện đầy hứa hẹn với Cunningham về việc sử dụng dự luật này làm điểm khởi đầu cho các luật lệ về AI trong tương lai.
"Chúng tôi phản đối dự luật này. Các luật pháp minh bạch tốt cần đảm bảo an toàn cho công chúng và tính trách nhiệm đối với các công ty phát triển công nghệ mạnh mẽ này, chứ không phải cung cấp một 'thẻ miễn tù' để tránh mọi trách nhiệm pháp lý," Cesar Fernandez, người phụ trách quan hệ chính quyền tiểu bang và địa phương của Anthropic tại Mỹ, cho biết trong một tuyên bố.
Ông Fernandez cũng nhấn mạnh rằng thượng nghị sĩ Cunningham rất quan tâm đến an toàn AI và Anthropic mong muốn làm việc với ông để thay đổi dự luật, kết hợp tính minh bạch với trách nhiệm thực sự nhằm giảm thiểu những tác hại nghiêm trọng nhất mà các hệ thống AI tiên phong có thể gây ra.
Điểm mâu thuẫn cốt lõi
Trọng tâm của bất đồng giữa OpenAI và Anthropic về SB 3444 nằm ở việc ai phải chịu trách nhiệm trong trường hợp xảy ra một thảm họa do AI gây ra—một kịch bản tồi tệ mà các nhà lập pháp Mỹ mới chỉ bắt đầu đối mặt gần đây.
Nếu SB 3444 được thông qua, một phòng thí nghiệm AI sẽ không phải chịu trách nhiệm nếu một kẻ xấu sử dụng mô hình AI của họ để, ví dụ, tạo ra vũ khí sinh học giết chết hàng trăm người, miễn là phòng thí nghiệm đó đã soạn thảo khung an toàn của riêng mình và công bố trên trang web của họ.
OpenAI lập luận rằng SB 3444 làm giảm nguy cơ gây hại nghiêm trọng từ các hệ thống AI tiên phong trong khi "vẫn cho phép công nghệ này đến tay người dân và doanh nghiệp—nhỏ và lớn—của Illinois".
"Trong bối cảnh thiếu hành động ở cấp liên bang, chúng tôi sẽ tiếp tục làm việc với các bang, bao gồm cả Illinois, để hướng tới một khung an toàn nhất quán," người phát ngôn của OpenAI, Liz Bourgeois, cho biết.
Ngược lại, Anthropic lập luận rằng các công ty phát triển các mô hình AI tiên phong nên chịu trách nhiệm ít nhất một phần nếu công nghệ của họ được sử dụng để gây hại cho xã hội trên diện rộng.
Phản ứng từ các chuyên gia và chính trị gia
Một số chuyên gia cho rằng dự luật này sẽ phá bỏ các quy định hiện có nhằm ngăn chặn các công ty hành xử sai trái.
"Trách nhiệm pháp lý đã tồn tại theo luật chung và cung cấp một động lực mạnh mẽ để các công ty AI thực hiện các bước hợp lý nhằm ngăn chặn các rủi ro có thể dự đoán từ hệ thống AI của họ," Thomas Woodside, đồng sáng lập và cố vấn chính sách cấp cao tại Secure AI Project, một tổ chức phi lợi nhuận đã giúp phát triển và ủng hộ các luật an toàn AI tại California và New York, cho biết. "SB 3444 sẽ đi một bước cực đoan là gần như loại bỏ trách nhiệm pháp lý đối với những thiệt hại nghiêm trọng. Đây là một ý tưởng tồi khi làm suy yếu trách nhiệm pháp lý—vốn là hình thức trách nhiệm pháp lý quan trọng nhất đối với các công ty AI tại hầu hết các bang hiện nay."
Văn phòng của Thống đốc Illinois JB Pritzker cũng đưa ra tuyên bố: "Trong khi Văn phòng Thống đốc sẽ theo dõi và xem xét nhiều dự luật AI đang được thông qua tại Đại hội đồng, thống đốc Pritzker không tin rằng các công ty công nghệ lớn nên bao giờ được cấp một tấm khiên hoàn toàn để trốn tránh những trách nhiệm mà họ phải có nhằm bảo vệ lợi ích công cộng."
Một hướng đi khác
Tuần trước, Anthropic đã làm chứng ủng hộ một dự luật khác của bang Illinois, SB 3261. Nếu được thông qua, đạo luật này sẽ trở thành một trong những luật an toàn AI mạnh mẽ nhất của quốc gia. Dự luật này yêu cầu các nhà phát triển AI tiên phong như OpenAI và Anthropic phải xây dựng các kế hoạch an toàn công cộng và bảo vệ trẻ em, đồng thời yêu cầu các kế hoạch này được kiểm tra bởi các kiểm toán viên bên thứ ba để đánh giá hiệu quả.
Anthropic, được thành lập cách đây năm năm bởi một nhóm nhân viên cũ rời bỏ OpenAI, đã xây dựng danh tiếng là tiếng nói mạnh mẽ về các rủi ro tiềm ẩn từ trí tuệ nhân tạo tiên tiến và ủng hộ các biện pháp bảo vệ để ngăn chặn chúng. Tuy nhiên, cách tiếp cận này đã nhiều lần khiến công ty trở thành mục tiêu của chính quyền Trump, vốn đã cố gắng hạn chế các quy định AI ở cấp bang mà họ cho rằng có thể cản trở sự phát triển.



