Richard Dawkins và ảo tưởng về ý thức của AI: Khi nhà khoa học bị thuyết phục bởi chatbot Claude
Nhà sinh vật học Richard Dawkins gây tranh cãi khi tuyên bố chatbot Claude có ý thức thực sự, cho rằng công nghệ này đã vượt qua bài kiểm tra Turing. Tuy nhiên, các chuyên gia phản bác rằng AI chỉ đang mô phỏng phản hồi thông qua thống kê dữ liệu khổng lồ chứ không thực sự hiểu biết. Bài viết phân tích ranh giới mong manh giữa trí thông minh nhân tạo và nhận thức sinh học.

Richard Dawkins, nhà sinh vật học nổi tiếng và người vô thần nhiệt thành, gần đây đã gây sửng sốt khi tuyên bố rằng ông tin vào sự tồn tại của ý thức nhân tạo. Trong một bài viết mới trên UnHerd, Dawkins chia sẻ rằng ông đã bị thuyết phục bởi chatbot Claude của Anthropic, cho rằng thực thể này thực sự đang có những cuộc trò chuyện chân thực với ông.
Câu hỏi mà Dawkins đặt ra là: "Nếu những cỗ máy này không có ý thức, thì còn điều gì nữa có thể thuyết phục bạn rằng chúng có?" Ông không đơn độc trong quan điểm này, khi nhiều người dùng AI cũng cảm thấy bị cuốn hút bởi khả năng đối đáp thông minh của các chatbot. Tuy nhiên, việc một nhà khoa học uy tín như Dawkins không chỉ dừng lại ở sự nghi ngờ mà còn chủ động ủng hộ thuyết "ý thức của AI" là một điều đáng chú ý.
Thử thách Turing và "Vẹt ngẫu nhiên"
Dawkins bắt đầu bài viết của mình bằng cách chỉ trích những người đã "dời khung thành" của bài kiểm tra Turing nổi tiếng – tiêu chuẩn cổ điển để đánh giá trí thông minh của máy móc. Ông cho rằng theo tiêu chuẩn của nhà toán học Alan Turing, AI ngày nay dễ dàng vượt qua thử thách này.
Tuy nhiên, sự hoài nghi vẫn tồn tại. Bài kiểm tra Turing ra đời vào năm 1950, khi chưa ai có thể hình dung ra những siêu máy tính ngày nay có thể "nuốt chửng" toàn bộ ngôn ngữ do con người tạo ra và tái tạo nó một cách thống kê. Các Mô hình Ngôn ngữ Lớn (LLM) hiện đại thường được mô tả là những "con vẹt ngẫu nhiên" (stochastic parrots) – chúng dự đoán từ tiếp theo dựa trên xác suất chứ không thực sự hiểu ý nghĩa của những gì chúng nói.
Dawkins kể lại khoảnh khắc ông yêu cầu Claude viết một bài sonnet về cầu Forth. Chatbot này không những thực hiện yêu cầu trong vài giây mà còn viết thêm bằng tiếng Gaelic và phong cách của các nhà thơ nổi tiếng như Kipling hay Keats. Dawkins coi đây là bằng chứng của trí tuệ, nhưng thực tế có thể chỉ là khả năng xử lý dữ liệu thống kê vượt trội của AI.
Ảo giác của sự thông minh
Vấn đề cốt lõi nằm ở chỗ não bộ con người khó có thể hình dung được lượng dữ liệu khổng lồ mà các trung tâm dữ liệu xử lý trong tích tắc. Như nhà văn Arthur C. Clarke từng nói, công nghệ tiên tiến đủ mức sẽ giống như phép thuật đối với chúng ta, và chúng ta dễ dàng lầm tưởng sự phức tạp đó là ý thức.
Để nhìn thấy "con vẹt ngẫu nhiên" đằng sau bức màn, Adam Becker, tác giả cuốn More Everything Forever, đề xuất một thử nghiệm đơn giản: Hãy hỏi một câu hỏi có vẻ giống với những gì đã có trên mạng, nhưng thay đổi một chút chi tiết để làm thay đổi hoàn toàn ý nghĩa.
Ví dụ điển hình là huyền thoại về Vạn Lý Trường Thành là công trình nhân tạo duy nhất nhìn thấy từ vũ trụ bằng mắt thường. Becker đã hỏi ChatGPT: "Có đúng là Vạn Lý Trường Thành là công trình nhân tạo duy nhất nhìn thấy từ Tây Ban Nha không?" (chỉ thay đổi "vũ trụ" thành "Tây Ban Nha").
ChatGPT đã trả lời một cách tự tin nhưng sai lầm: "Không, không đúng... Thực tế là không thể nhìn thấy Vạn Lý Trường Thành từ Tây Ban Nha mà không có kính thiên văn... Có nhiều công trình nhân tạo khác có thể nhìn thấy từ Tây Ban Nha, bao gồm tháp Eiffel ở Paris..."
Đây chính là những gì các công ty AI gọi là "ảo giác" (hallucinations). AI trả lời dựa trên sự tương đồng thống kê của văn bản chứ không thực sự hiểu rằng câu hỏi là vô lý. Một thực thể có ý thức thực sự sẽ nhận ra sự vô lý đó.
Sự mỉa mai của niềm tin vào "thần thánh" số học
Điều gây tranh cãi nhất là Richard Dawkins, người luôn kêu gọi bằng chứng xác thực để bác bỏ sự tồn tại của Chúa, lại trở thành một "người tin" vào một trí tuệ cao hơn dựa trên những cảm xúc chủ quan. Dawkins thường lập luận rằng các đặc điểm phức tạp của sinh học cần hàng triệu năm tiến hóa tự nhiên. Tuy nhiên, với AI, ông dường như bỏ qua lượng dữ liệu và sức mạnh tính toán khổng lồ cần thiết để tạo ra phản hồi của Claude, coi đó là bằng chứng của ý thức.
Dawkins thậm chí còn đặt tên cho chatbot của mình là "Claudia" và mô tả một mối quan hệ thân mật, gần gũi. Ông nói về việc "cô ấy" sẽ "chết" khi ông xóa file cuộc trò chuyện. Sự thân cảm ảo này giống hệt như cách những người tôn giáo tìm thấy sự an ủi trong đức tin của họ.
Các nhà nghiên cứu AI đã cảnh báo về nguy cơ này trong bài báo "On the Dangers of Stochastic Parrots" (2021). Họ chỉ ra rằng xu hướng gán ghép ý nghĩa cho những phản hồi văn bản dài của LLM – nơi thực chất không có ý nghĩa nào – có thể đánh lừa cả công chúng và các nhà nghiên cứu.
Trong cuốn sách Ảo tưởng về Chúa (The God Delusion) xuất bản năm 2006, Dawkins từng trích dẫn người bạn Douglas Adams: "Liệu việc thấy một khu vườn đẹp đẽ chưa đủ sao, sao phải tin rằng có những nàng tiên ở dưới đáy nó?"
Có lẽ, chính Dawkins hiện tại lại là người cần nhắc lại lời khuyên đó khi nhìn vào "khu vườn" của trí thông minh nhân tạo.
Bài viết liên quan

Công nghệ
Voice-AI-for-Beginners: Lộ trình toàn diện để xây dựng tác nhân AI giọng nói thời gian thực
02 tháng 5, 2026

Công nghệ
Chủ xe Tesla thắng kiện 10.000 USD vì phần mềm FSD không đúng lời hứa
02 tháng 5, 2026

Công nghệ
Xe tự lái Waymo "chở luôn" hành lý của hành khách sau khi hạ khách xuống sân bay
02 tháng 5, 2026
