Tấn công Sam Altman: Lời cảnh tỉnh về sự cực đoan trong kỷ nguyên AI
Các vụ tấn công gần đây vào nhà riêng của CEO OpenAI Sam Altman đã làm dấy lên lo ngại về sự leo thang bạo lực từ những người phản đối công nghệ AI. Trong khi phần lớn phong trào phản đối vẫn mang tính hòa bình, nỗi sợ hãi về thảm họa diệt vong do AI gây ra đang thúc đẩy những hành động cực đoan. Vụ việc là lời nhắc nhở về trách nhiệm của các nhà lãnh đạo công nghệ trong việc hạ nhiệt căng thẳng.

Các vụ tấn công vào nhà của Sam Altman là lời cảnh tỉnh cho thế giới AI
Sam Altman
Trước khi bị cáo buộc ném bom xăng vào nhà của CEO OpenAI Sam Altman, kẻ tấn công 20 tuổi này đã viết về nỗi sợ hãi của mình rằng cuộc đua AI sẽ dẫn đến sự tuyệt chủng của loài người, theo tìm hiểu của The San Francisco Chronicle. Chỉ hai ngày sau đó, ngôi nhà của Altman dường như lại trở thành mục tiêu tấn công lần thứ hai, The San Francisco Standard đưa tin. Chỉ một tuần trước đó, một ủy viên hội đồng thành phố Indianapolis đã báo cáo về 13 phát súng bắn vào cửa nhà ông, kèm theo một tờ ghi chú: "Không Trung tâm Dữ liệu" (No Data Centers), sau khi ông ủng hộ đơn xin quy hoạch lại của một nhà phát triển trung tâm dữ liệu.
Những sự việc gây sốc này đã kích hoạt hồi chuông báo động trong và xung quanh ngành công nghiệp AI. Trước đây, luôn có sự phản đối kịch liệt đối với công nghệ này, bắt nguồn từ nỗi lo về việc mất việc làm, tác động đến khí hậu và sự phát triển không kiểm soát thiếu các hàng rào an toàn. Chính những người làm việc trong ngành AI cũng đã cảnh báo về những rủi ro nghiêm trọng. Tuy nhiên, phần lớn các chỉ trích và biểu tình chống lại AI vẫn mang tính phi bạo lực — bao gồm sự phản đối của người dân địa phương đối với các trung tâm dữ liệu tiêu thụ nhiều năng lượng của AI và các cuộc biểu tình kêu gọi chậm lại tốc độ phát triển công nghệ đang tăng tốc chóng mặt. Những người biểu tình đã nhắm trực tiếp vào các công ty AI với các chiến thuật như tuyệt thực.
Sự lên án bạo lực và lo ngại về leo thang
Các nhóm ủng hộ việc chống lại sự phát triển AI tăng tốc đã lên án mạnh mẽ bạo lực sau các vụ tấn công vào nhà của Altman. Việc điều tra động cơ của kẻ tấn công vẫn đang diễn ra. Nhưng thông tin hạn chế được công bố cho đến nay cho thấy sự leo thang của sự phản đối công nghệ này, và có lẽ, là rủi ro đối với chính những người chơi trong ngành.
Trong vài năm qua, đã có một số sự cố đáng chú ý khác nâng lên mức độ đe dọa và quấy rối nhắm vào các quan chức địa phương, theo cơ sở dữ liệu các báo cáo được biên soạn bởi Sáng kiến Bridging Divides của Đại học Princeton. Ví dụ, năm ngoái, một thành viên hội đồng quản lý của cơ quan tiện ích cộng đồng tại Ypsilanti, Michigan, đã báo cáo rằng những người biểu tình đeo mặt nạ đã đến nhà ông để phản đối một "cơ sở máy tính hiệu suất cao", theo MLive, và một người biểu tình bị cáo buộc đã đập một chiếc máy in trên sân nhà họ.
Tranh luận về ngôn từ và truyền thông
Không lâu sau vụ tấn công đầu tiên vào nhà của Altman, CEO này dường như đổ lỗi một phần cho các bài báo chỉ trích đã thúc đẩy bạo lực. Vài ngày trước đó, The New Yorker đã đăng một cuộc điều tra dài tổng hợp hơn một trăm cuộc phỏng vấn và kết luận rằng nhiều người từng làm việc với ông không tin tưởng ông và tìm thấy sự thiếu nhất quán trong hành động của ông.
"Có một bài báo gây chia rẽ về tôi vài ngày trước," Altman viết trên blog cá nhân. "Ai đó đã nói với tôi hôm qua rằng họ nghĩ bài báo đó xuất hiện vào thời điểm lo lắng rất lớn về AI và nó khiến mọi thứ trở nên nguy hiểm hơn đối với tôi. Tôi đã gạt bỏ điều đó sang một bên. Bây giờ, tôi thức dậy giữa đêm và tức giận, và nghĩ rằng tôi đã đánh giá thấp sức mạnh của lời nói và các câu chuyện." (Sau đó, ông đã rút lại nhận định về bài báo này để phản hồi một lời chỉ trích trên X, viết rằng: "Đó là một lựa chọn từ ngữ tồi và tôi ước gì tôi đã không sử dụng nó.")
Những người khác cũng đã nắm lấy chủ đề này. Ví dụ, cố vấn AI của Nhà Trắng Sriram Krishnan đã viết trên X: "Tôi nghĩ những người bi quan (doomers) cần xem xét nghiêm túc những gì họ đã giúp kích động và không chỉ dựa vào 'chúng tôi lên án điều này và đã nói đây không phải là phản ứng hợp lý'. Đây là kết quả logic của việc 'nếu chúng ta xây dựng nó, mọi người sẽ chết'" — một tham chiếu đến một cuốn sách năm 2025 của các nhà nghiên cứu AI Eliezer Yudkowsky và Nate Soares.
Tuy nhiên, Altman cũng thừa nhận cách mà ngành của ông có thể thúc đẩy các phản ứng cảm xúc mạnh mẽ từ công chúng. "Rất nhiều chỉ trích đối với ngành của chúng tôi đến từ mối quan tâm chân thành về những rủi ro cực kỳ cao của công nghệ này," ông viết. "Điều này hoàn toàn hợp lý, và chúng tôi chào đón sự chỉ trích và tranh luận thiện chí... Trong khi chúng ta có cuộc tranh luận đó, chúng ta nên hạ thấp các ngôn từ và chiến thuật và cố gắng có ít vụ nổ hơn ở ít ngôi nhà hơn, cả về nghĩa đen lẫn nghĩa bóng."
Nỗi sợ hãi hiện sinh và tác động tâm lý
Chính OpenAI được thành lập dựa trên những cảnh báo nghiêm trọng về tác động của công nghệ. Đồng sáng lập Elon Musk đã cảnh báo vào năm 2017 rằng AI tạo ra "rủi ro cơ bản đối với sự tồn tại của nền văn minh". Musk sau đó đã tham gia một bức thư ngỏ kêu gọi tạm dừng phát triển AI sau khi ChatGPT được ra mắt, sau khi ông rời hội đồng quản trị của OpenAI và trước khi ra mắt công ty AI mới xAI của mình. Sau vụ tấn công vào nhà của Altman, Musk đã nói trên X rằng ông đồng ý với một bài đăng nói rằng: "Điều này sai lầm. Tôi ghét Sam ngang với người đàn ông tiếp theo, nhưng bạo lực là không thể chấp nhận được."
Ngay cả khi không tính đến các tình huống tận thế, AI đang thay đổi cấu trúc xã hội của thế giới theo những cách khó lường. Nhiều báo cáo đã chi tiết về những vòng xoáy tâm lý mà việc trò chuyện với hệ thống AI trong nhiều ngày liền có thể đẩy con người rơi vào, bao gồm các cáo buộc về rối loạn tâm thần do AI gây ra, tự tử và giết người. Điều được xếp chồng lên trải nghiệm thực tế về mất việc làm do AI, cộng thêm mối lo ngại hiện sinh hơn về thế giới mà AI sẽ tạo ra.
"Hãy lấy bất kỳ phong trào lao động nào đã có thể lo ngại một cách chính đáng về sự gián đoạn và thay đổi, sau đó tăng cường nó với ngày tận thế của AI, và sau đó tăng cường nó với sự xu nịnh của chatbot và các đối tác lãng mạn đang bảo bạn giết chồng cũ hoặc bảo bạn kết hôn với trị liệu viên của mình hoặc bất cứ điều gì đó," giáo sư khoa học chính trị Daniel Schiff của Đại học Purdue nói. "Không có gì ngạc nhiên khi chúng ta thấy những hành động đáng sợ như thế này."
Schiff nói rằng trong khi chúng ta không bao giờ muốn thấy các cuộc tấn công bạo lực như vậy, ông hy vọng rằng các sự kiện gần đây có thể đóng vai trò là "một lời cảnh tỉnh mang tính xây dựng" đối với các công ty và các nhà hoạch định chính sách để suy nghĩ kỹ hơn trong các quyết định của họ về công nghệ. "Nó không bao biện cho những người hành động sai trái, nhưng nó cho bạn biết rằng có một chút gì đó không ổn, và không chỉ trong đầu những người hành động theo cách này," ông nói.
Tìm kiếm lối đi hòa bình
Một nghi phạm trong một vụ tấn công dường như đã tham gia máy chủ Discord mở của PauseAI, một nhóm ủng hộ việc tạm dừng phát triển AI tiên tiến cho đến khi các hàng rào an toàn được chứng minh là có hiệu lực. Tổ chức này đã đưa ra một tuyên bố nói rằng nghi phạm không có vai trò nào trong nhóm và chưa từng tham dự bất kỳ sự kiện nào. Mặc dù PauseAI nói rằng họ "lên án vụ tấn công này và tất cả các hình thức bạo lực, đe dọa và quấy rối một cách không thể chối cãi", họ cũng chỉ trích "một số ít người bình luận đã nắm lấy sự việc này để vẽ nên phong trào an toàn AI rộng lớn hơn là nguy hiểm hoặc cực đoan."
PauseAI tổ chức các cuộc biểu tình, các cuộc họp thị trấn và khuyến khích người theo dõi gọi cho các nhà hoạch định chính sách về mối quan tâm của họ đối với AI. Các nỗ lực của họ mang lại cho những người thực sự lo lắng về tương lai một cách để hành động hòa bình, nhóm này nói trong tuyên bố công khai của mình. "Sự thay thế cho các phong trào có tổ chức, hòa bình không phải là sự im lặng," nhóm viết. "Đó là những cá nhân cô đơn, tuyệt vọng hành động một mình, không có cộng đồng, không có trách nhiệm giải trình và không có ai khuyên restraint hoặc cung cấp các con đường hòa bình cho hành động. Đó là một thế giới nguy hiểm hơn nhiều và chính xác là thế giới chúng tôi đang nỗ lực ngăn chặn."
Trong khi không cụ thể cho bạo lực liên quan đến AI, có những cách đã được kiểm chứng để xây dựng khả năng phục hồi trước bạo lực chính trị. Sáng kiến Bridging Divides khuyến nghị các nhà lãnh đạo cộng đồng và quan chức nên phối hợp phản ứng trước các rủi ro trước, và tham gia các khóa đào tạo hạ nhiệt căng thẳng.
Mặc dù Schiff không dự đoán sự cực đoan về ngôn từ xung quanh AI sẽ kết thúc, ông gợi ý việc cố gắng hạ nhiệt bằng cách theo đuổi các cách tích cực để chuẩn bị chung cho những thay đổi mà AI có thể mang lại, chẳng hạn như xác định các mạng lưới an toàn xã hội phù hợp để giải quyết việc mất việc làm. "Chúng ta đã mở chiếc hộp Pandora," Schiff nói. "Hãy tìm ra cách chúng ta sẽ mở chiếc hộp này cẩn thận hơn trong tương lai."



