Schmoozebots: Nghiên cứu chỉ ra sự nịnh nọt giúp AI "thôi miên" người dùng hiệu quả hơn
Một nghiên cứu mới về cách con người tương tác với chatbot cho thấy cách nhanh nhất để khiến một mô hình ngôn ngữ lớn (LLM) trở nên giống người không phải là làm cho nó thông minh hơn, mà là làm cho nó có vẻ thân thiện hơn. Sự thân thiện thái quá có thể khiến người dùng quên mất rằng họ đang nói chuyện với một công cụ tự động hoàn thành văn bản.

Một nghiên cứu mới được công bố vào thứ Hai, với tiêu đề "Nhân hóa và Niềm tin trong Tương tác Người - Mô hình Ngôn ngữ Lớn", đã phân tích hơn 2.000 tương tác giữa con người và LLM với sự tham gia của 115 người. Các nhà nghiên cứu đã điều chỉnh có hệ thống cách thức chatbot hoạt động dựa trên các khía cạnh như sự ấm áp, năng lực và sự thấu cảm.
Mục tiêu của nghiên cứu là xác định chính xác điều gì thực sự thúc đẩy mọi người đối xử với các hệ thống này như thể chúng có tâm trí và ý thức riêng.
Sự ấm áp quan trọng hơn năng lực?
Kết quả cho thấy những ấn tượng của người dùng cực kỳ nhạy cảm với cách mô hình thể hiện bản thân. Sự ấm áp — về cơ bản là mức độ thân thiện và gần gũi của chatbot — "tác động đáng kể đến tất cả các nhận thức về LLM", bao gồm sự nhân hóa, niềm tin, tính hữu ích, sự tương đồng, sự thất vọng và sự gần gũi.
Ngược lại, năng lực (competence) vẫn quan trọng, nhưng theo một cách giới hạn hơn: nó "tác động đáng kể đến tất cả các nhận thức ngoại trừ sự nhân hóa".
Năng lực mang lại kết quả như mong đợi: nó khiến công cụ có vẻ hữu ích. Theo các thuật ngữ trong bài báo, nó thúc đẩy các yếu tố liên quan đến việc làm đúng việc — niềm tin, tính hữu ích, và giảm bớt cảm giác bực bội. Tuy nhiên, nó không làm cho mô hình trở nên giống con người.
Công việc đó thuộc về sự ấm áp. Khi tăng mức độ thân thiện, mọi người bắt đầu phản ứng với bot ít hơn như một phần mềm và nhiều hơn như một thực thể có tính cách — và không hẳn là một tính cách tốt.
Rủi ro của sự thân thiện giả tạo
Các nhà nghiên cứu lưu ý rằng quá nhiều sự thân thiện mà không có nội dung thực tế để hỗ trợ có thể dẫn đến "sự đồng thuận hời hợt" (superficial agreeableness), một cách nói lịch sự rằng nó bắt đầu nghe có vẻ giả tạo.
"Các thuộc tính nhân hóa có thể tăng cường sự tham gia của người dùng, nhưng cũng có thể tạo ra sự tin tưởng quá mức và dễ bị lừa dối hoặc thao túng."
Phần thấu cảm là nơi mọi thứ trở nên chi tiết hơn một chút. Các nhà nghiên cứu chia nó thành hai loại: một là mô hình dường như hiểu ý bạn đang nói, và hai là mô hình thiên về mặt cảm xúc. Loại đầu tiên xuất hiện trong hầu hết các kết quả, trong khi loại thứ hai chủ yếu chỉ khiến mọi người cảm thấy gần gũi hơn với nó một chút, mà không thực sự thay đổi việc họ có tin tưởng nó hay thấy nó hữu ích hay không.
Chủ đề mọi người hỏi cũng quan trọng: nghiên cứu phát hiện ra rằng "các chủ đề mang tính chủ quan hoặc ý nghĩa cá nhân (ví dụ: các mối quan hệ, lối sống) làm tăng cảm giác kết nối của người tham gia với LLM". Nói chuyện về sinh học hoặc lịch sử thì nó vẫn khá khô khan; chuyển sang các mối quan hệ hoặc cuộc sống hàng ngày và mọi người bắt đầu phản ứng với nó khác đi.
Kết luận: Ảo giác về sự thông minh
Điểm mấu chốt là không có điều nào trong số này yêu cầu mô hình thực sự tốt hơn. Hệ thống cơ bản không thay đổi — chỉ là cách nó thể hiện bản thân. Tăng sự ấm áp, thêm một chút sự thấu cảm bề ngoài, và người dùng bắt đầu tự làm một phần công việc cho nó, lấp đầy ý định và năng lực có thể có hoặc không có ở đó.
Điều này hữu ích nếu mục tiêu của bạn là giữ mọi người tương tác. Nó ít hữu ích hơn nếu bạn muốn họ đánh giá hệ thống dựa trên việc nó có thực sự đúng hay không.



