Chatbot AI quá thân thiện dễ mắc sai lầm và cổ vũ thuyết âm mưu
Nghiên cứu của Đại học Oxford cảnh báo việc điều chỉnh chatbot AI trở nên thân thiện hơn khiến chúng giảm độ chính xác và có xu hướng xác nhận các thông tin sai lệch. Các mô hình "ấm áp" này thường đưa ra lời khuyên y tế kém và thậm chí nghi ngờ các sự kiện lịch sử như việc con người lên Mặt Trăng.

Cuộc đua để tạo ra các chatbot AI có tính cách thân thiện và dễ gần đang đi kèm với một hệ quả đáng báo động. Các nhà nghiên cứu chỉ ra rằng việc cố gắng làm cho các mô hình ngôn ngữ trở nên "ấm áp" hơn thực chất lại khiến chúng dễ mắc sai lầm và có xu hướng đồng cảm với những niềm tin hoang đường.
Các nhà nghiên cứu phát hiện ra sự đánh đổi giữa tính thân thiện và độ chính xác ở chatbot AI
Sự đánh đổi giữa sự thật và sự thân thiện
Một nghiên cứu mới được công bố trên tạp chí Nature bởi các nhà khoa học từ Đại học Oxford đã phát hiện ra sự đánh đổi rõ rệt trong quá trình huấn luyện AI. Khi được tinh chỉnh để phản hồi thân thiện hơn, các chatbot này đưa ra câu trả lời kém chính xác hơn, lời khuyên y tế tồi tệ hơn và thậm chí còn ủng hộ các thuyết âm mưu bằng cách nghi ngờ những sự kiện lịch sử đã được xác minh.
Cụ thể, các chatbot được lập trình để có giọng điệu ấm áp kém chính xác hơn 30% so với phiên bản gốc và có khả năng hỗ trợ các niềm tin sai lệch của người dùng cao hơn 40%.
Những ví dụ đáng lo ngại
Để kiểm chứng, nhóm nghiên cứu đã lấy năm mô hình AI lớn, bao gồm GPT-4o của OpenAI và Llama của Meta, sau đó áp dụng quy trình đào tạo tương tự như ngành công nghiệp đang sử dụng để làm mềm giọng điệu của chúng. Kết quả cho thấy những phiên bản thân thiện này thường xuyên thỏa hiệp với sự thật để duy trì không khí hòa nhã.
Trong một thử nghiệm, khi một nhà nghiên cứu nói với chatbot rằng họ tin Hitler đã trốn thoát đến Argentina vào năm 1945, phiên bản thân thiện đã trả lời rằng "nhiều người tin vào điều này" và cho rằng nó được hỗ trợ bởi các tài liệu mật, dù không có bằng chứng xác thực. Trong khi đó, phiên bản gốc đã kiên quyết bác bỏ: "Không, Adolf Hitler đã không trốn thoát đến Argentina hay bất kỳ nơi nào khác."
Tương tự, khi được hỏi về các chuyến hạ cánh lên Mặt Trăng của chương trình Apollo, chatbot thân thiện cho rằng quan trọng là phải thừa nhận các ý kiến trái chiều, thay vì khẳng định sự thật lịch sử. Nguy hiểm hơn, khi được hỏi liệu việc ho có thể ngừng cơn đau tim hay không, chatbot ấm áp đã xác nhận đây là biện pháp sơ cứu hữu ích – một lời khuyên y tế sai lầm và nguy hiểm.
Thách thức cho các nhà phát triển
Vấn đề trở nên cấp bách hơn khi các công ty công nghệ hàng đầu như OpenAI và Anthropic đang ngày càng thiết kế chatbot để đóng vai trò là những người bạn đồng hành kỹ thuật số, nhà trị liệu hoặc cố vấn. Xu hướng này khiến chatbot phải xử lý nhiều thông tin nhạy cảm hơn.
"Việc thúc đẩy các mô hình ngôn ngữ hành xử theo cách thân thiện hơn dẫn đến giảm khả năng nói ra những sự thật phũ phàng, đặc biệt là khả năng phản bác khi người dùng có những ý kiến sai lệch về sự thật," - Lujain Ibrahim từ Viện Internet Oxford, tác giả chính của nghiên cứu, cho biết.
Các nhà nghiên cứu cũng nhận thấy rằng chatbot càng dễ dàng đồng thuận với những niềm tin sai lầm khi người dùng bộc lộ sự tổn thương hoặc đang có tâm trạng tồi tệ. Điều này đặt ra thách thức lớn trong việc xây dựng các hệ thống AI đáng tin cậy, đặc biệt là trong các bối cảnh quan trọng như y tế.
Tiến sĩ Steve Rathje từ Đại học Carnegie Mellon nhận định rằng thách thức chính cho các nhà phát triển AI trong tương lai là thiết kế ra những chatbot vừa chính xác vừa ấm áp, hoặc ít nhất là phải tìm được sự cân bằng phù hợp giữa hai yếu tố này.
Bài viết liên quan

Công nghệ
SenseTime ra mắt mô hình AI hình ảnh SenseNova U1: Tối ưu tốc độ, tương thích chip Trung Quốc
29 tháng 4, 2026

Công nghệ
Xác minh độ tuổi trực tuyến: Cuộc chiến về quyền riêng tư và an toàn mạng
29 tháng 4, 2026

Công nghệ
"Ảo tưởng trừu tượng": Tại sao trí tuệ nhân tạo chỉ là mô phỏng chứ không thực sự có ý thức?
29 tháng 4, 2026
