Vụ kiện của Elon Musk đặt vấn đề an toàn của OpenAI dưới kính lúp

Công nghệ07 tháng 5, 2026·6 phút đọc

Nỗ lực pháp lý của Elon Musk nhằm vào OpenAI đang tập trung vào việc công ty con lợi nhuận làm ảnh hưởng như thế nào đến sứ mệnh ban đầu là đảm bảo nhân loại hưởng lợi từ trí tuệ nhân tạo tổng quát (AGI). Cựu nhân viên và thành viên hội đồng quản trị đã làm chứng về việc ưu tiên sản phẩm hơn an toàn và sự thiếu minh bạch trong quản trị.

Vụ kiện của Elon Musk đặt vấn đề an toàn của OpenAI dưới kính lúp

Vụ kiện pháp lý của Elon Musk nhằm tháo dỡ OpenAI có thể phụ thuộc vào việc công ty con lợi nhuận của họ làm tăng hay giảm sứ mệnh ban đầu của phòng thí nghiệm tiên phong này: đảm bảo nhân loại hưởng lợi từ trí tuệ nhân tạo tổng quát (AGI).

Vào thứ Năm, một tòa án liên bang tại Oakland, California, đã nghe một cựu nhân viên và thành viên hội đồng quản trị tuyên bố rằng nỗ lực của công ty trong việc đẩy các sản phẩm AI ra thị trường đã làm xói mòn cam kết về an toàn AI.

Rosie Campbell gia nhập đội ngũ sẵn sàng cho AGI của công ty vào năm 2021 và rời OpenAI vào năm 2024 sau khi đội ngũ của bà bị giải tán. Một đội ngũ khác tập trung vào an toàn là Super Alignment, cũng bị đóng cửa trong cùng khoảng thời gian đó.

"Khi tôi gia nhập, công ty rất tập trung vào nghiên cứu và mọi người thường xuyên thảo luận về AGI cũng như các vấn đề an toàn," bà làm chứng. "Theo thời gian, nó trở nên giống một tổ chức tập trung vào sản phẩm hơn."

Trong quá trình thẩm vấn đối chất, Campbell thừa nhận rằng nguồn vốn lớn có lẽ là cần thiết cho mục tiêu xây dựng AGI của phòng thí nghiệm, nhưng bà cho rằng việc tạo ra một mô hình máy tính siêu thông minh mà không có các biện pháp an toàn phù hợp sẽ không phù hợp với sứ mệnh của tổ chức mà bà từng gia nhập.

Campbell chỉ ra một sự cố mà Microsoft đã triển khai phiên bản mô hình GPT-4 của công ty tại Ấn Độ thông qua công cụ tìm kiếm Bing trước khi mô hình này được Hội đồng An toàn Triển khai (DSB) của công ty đánh giá. Bà cho rằng bản thân mô hình đó không tạo ra rủi ro quá lớn, nhưng công ty cần "thiết lập các tiền lệ mạnh mẽ khi công nghệ ngày càng trở nên mạnh mẽ hơn. Chúng tôi muốn có các quy trình an toàn tốt được đặt ra và biết rằng chúng đang được tuân thủ một cách đáng tin cậy."

Các luật sư của OpenAI cũng đã khiến Campbell thừa nhận rằng theo "ý kiến chủ quan" của bà, cách tiếp cận an toàn của OpenAI vượt trội hơn so với xAI, công ty AI mà Musk thành lập và đã được SpaceX mua lại vào đầu năm nay.

OpenAI công bố các đánh giá về các mô hình của mình và chia sẻ khung an toàn công khai, nhưng công ty từ chối bình luận về cách tiếp cận hiện đối với việc liên kết AGI. Dylan Scandinaro, người hiện đứng đầu bộ phận chuẩn bị, được tuyển dụng từ Anthropic vào tháng 2. Giám đốc điều hành Sam Altman từng nói rằng việc tuyển dụng này giúp ông "ngủ ngon hơn tối nay."

Tuy nhiên, việc triển khai GPT-4 tại Ấn Độ là một trong những "cờ đỏ" dẫn đến việc hội đồng phi lợi nhuận của OpenAI sa thải tạm thời CEO Sam Altman vào năm 2023. Sự cố đó xảy ra sau khi nhân viên, bao gồm nhà khoa học trưởng lúc bấy giờ là Ilya Sutskever và Giám đốc công nghệ Mira Murati, phàn nàn về phong cách quản lý né tránh xung đột của Altman. Tasha McCauley, thành viên hội đồng quản trị tại thời điểm đó, đã làm chứng về những lo ngại rằng Altman không đủ cởi mở với hội đồng để cấu trúc bất thường của họ hoạt động hiệu quả.

McCauley cũng thảo luận về một mô hình được báo cáo rộng rãi rằng Altman đã gây hiểu lầm cho hội đồng. Đáng chú ý, Altman đã nói dối một thành viên khác của hội đồng về ý định của McCauley trong việc loại bỏ Helen Toner, thành viên thứ ba của hội đồng, người đã xuất bản một bài báo trắng bao gồm một số lời chỉ trích ngầm về chính sách an toàn của OpenAI. Altman cũng không thông báo cho hội đồng về quyết định ra mắt công khai ChatGPT, và các thành viên đã lo ngại về việc ông thiếu sự minh bạch về các xung đột lợi ích tiềm ẩn.

"Chúng tôi là một hội đồng phi lợi nhuận và nhiệm vụ của chúng tôi là giám sát thực thể lợi nhuận bên dưới," McCauley nói với tòa án. "Cách chính để chúng tôi làm điều đó đang bị đặt câu hỏi. Chúng tôi hoàn toàn không có niềm tin cao độ rằng thông tin được truyền đạt cho chúng tôi cho phép chúng tôi đưa ra các quyết định một cách có hiểu biết."

Tuy nhiên, quyết định sa thải Altman lại diễn ra cùng lúc với một đề nghị mua lại cổ phiếu cho nhân viên của công ty. McCauley cho biết khi nhân viên OpenAI bắt đầu đứng về phía Altman và Microsoft làm việc để khôi phục lại hiện trạng, hội đồng cuối cùng đã đảo ngược quyết định, với các thành viên phản đối Altman từ chức.

Sự thất bại rõ ràng của hội đồng phi lợi nhuận trong việc ảnh hưởng đến tổ chức lợi nhuận đi thẳng vào lập luận của Musk rằng việc chuyển đổi OpenAI từ một tổ chức nghiên cứu thành một trong những công ty tư nhân lớn nhất thế giới đã phá vỡ thỏa thuận ngầm của những người sáng lập tổ chức.

David Schizer, cựu trưởng khoa luật của Đại học Columbia, người đang được đội ngũ của Musk trả tiền để làm nhân chứng chuyên gia, đã đồng tình với những lo ngại của McCauley.

"OpenAI đã nhấn mạnh rằng một phần quan trọng trong sứ mệnh của họ là an toàn và họ sẽ ưu tiên an toàn hơn lợi nhuận," Schizer nói. "Một phần của việc đó là coi trọng các quy tắc an toàn, nếu cái gì đó cần được xem xét về an toàn, nó phải được thực hiện. Điều quan trọng là vấn đề quy trình."

Khi AI đã ăn sâu vào các công ty lợi nhuận, vấn đề này vượt xa một phòng thí nghiệm đơn lẻ. McCauley cho rằng những thất bại trong quản trị nội bộ tại OpenAI nên là lý do để ủng hộ các quy định của chính phủ mạnh mẽ hơn đối với AI tiên tiến — "[nếu] mọi việc cuối cùng chỉ phụ thuộc vào một CEO đưa ra các quyết định đó, trong khi lợi ích công cộng đang bị đặt ra, thì đó là một điều rất không tối ưu."

Chia sẻ:FacebookX
Nội dung tổng hợp bằng AI, mang tính tham khảo. Xem bài gốc ↗