Chỉ dùng AI trong 10 phút có thể khiến bạn trở nên lười biếng và giảm khả năng tư duy, nghiên cứu cảnh báo

Công nghệ06 tháng 5, 2026·5 phút đọc

Nghiên cứu mới từ các trường đại học hàng đầu cho thấy việc phụ thuộc vào trợ lý AI chỉ trong thời gian ngắn có thể gây hại đáng kể cho khả năng tư duy và giải quyết vấn đề của con người. Điều này đặt ra câu hỏi lớn về việc cân bằng giữa tăng năng suất và việc phát triển các kỹ năng tư duy nền tảng.

Chỉ dùng AI trong 10 phút có thể khiến bạn trở nên lười biếng và giảm khả năng tư duy, nghiên cứu cảnh báo

Chỉ dùng AI trong 10 phút có thể khiến bạn trở nên lười biếng và giảm khả năng tư duy, nghiên cứu cảnh báo

Nghiên cứu mới từ các trường đại học hàng đầu cho thấy việc phụ thuộc vào trợ lý AI chỉ trong thời gian ngắn có thể gây hại đáng kể cho khả năng tư duy và giải quyết vấn đề của con người. Điều này đặt ra câu hỏi lớn về việc cân bằng giữa tăng năng suất và việc phát triển các kỹ năng tư duy nền tảng.

Tác động bất ngờ của AI lên não bộ

Theo một nghiên cứu mới từ các nhà khoa học tại Đại học Carnegie Mellon, MIT, Oxford và UCLA, việc sử dụng các chatbot AI chỉ trong vỏn vẹn 10 phút có thể gây tác động tiêu cực đáng ngờ đến khả năng tư duy và giải quyết vấn đề của con người.

Trong nghiên cứu này, các tình nguyện viên được yêu cầu giải quyết các vấn đề khác nhau, bao gồm các bài toán phân số đơn giản và bài đọc hiểu, thông qua một nền tảng trực tuyến trả công cho công việc của họ. Các nhà nghiên cứu đã thực hiện ba thí nghiệm, mỗi thí nghiệm liên quan đến vài trăm người.

Một số người tham gia được cung cấp quyền truy cập vào một trợ lý AI có khả năng tự chủ giải quyết vấn đề. Khi công cụ hỗ trợ này đột ngột bị thu hồi, những người này có khả năng bỏ cuộc hoặc trả lời sai cao hơn đáng kể so với nhóm không sử dụng AI. Nghiên cứu gợi ý rằng việc sử dụng AI rộng rãi có thể giúp tăng năng suất làm việc, nhưng đánh đổi bằng sự phát triển của các kỹ năng giải quyết vấn đề nền tảng.

Cần cân nhắc lại cách AI hỗ trợ con người

"Bài học rút ra ở đây không phải là chúng ta nên cấm AI trong giáo dục hay nơi làm việc," ông Michiel Bakker, trợ lý giáo sư tại MIT và thành viên của nhóm nghiên cứu, chia sẻ. "Rõ ràng AI có thể giúp mọi người hoạt động tốt hơn trong thời điểm hiện tại, và điều đó rất có giá trị. Nhưng chúng ta cần cẩn trọng hơn về loại hình hỗ trợ mà AI cung cấp và thời điểm cung cấp đó."

Ông Bakker, người trước đây từng làm việc tại Google DeepMind ở London, cho biết một bài luận nổi tiếng về cách AI có thể tước đi quyền lực của con người theo thời gian đã truyền cảm hứng cho ông suy nghĩ về cách công nghệ này đang xói mòn khả năng của con người ngay bây giờ.

Ông nhấn mạnh rằng đây về cơ bản là một câu hỏi nhận thức—liên quan đến sự kiên trì, việc học hỏi và cách con người phản ứng trước khó khăn. "Chúng tôi muốn xem xét các mối lo ngại rộng lớn hơn về tương tác giữa con người và AI trong dài hạn và nghiên cứu chúng trong một môi trường thí nghiệm được kiểm soát."

Kết quả nghiên cứu này đặc biệt đáng lo ngại vì ý chí kiên trì giải quyết vấn đề của một cá nhân là yếu tố then chốt để tiếp thu các kỹ năng mới và cũng dự báo khả năng học hỏi của họ theo thời gian.

Rủi ro khi giao phó tư duy cho máy móc

Ông Bakker cho rằng có thể cần phải suy nghĩ lại về cách hoạt động của các công cụ AI để chúng—giống như một người thầy giỏi—đôi khi ưu tiên việc học hỏi của con người hơn là giải quyết vấn đề thay cho họ.

"Hệ thống đưa ra câu trả lời trực tiếp có thể có tác động dài hạn rất khác so với các hệ thống cung cấp giàn giáo (scaffolding), huấn luyện hoặc thách thức người dùng," ông Bakker nhận định. Tuy nhiên, ông cũng thừa nhận việc cân bằng cách tiếp cận mang tính "bảo hộ" này có thể khá phức tạp.

Các công ty AI hiện nay cũng đã đang suy nghĩ về các tác động tinh tế hơn mà mô hình của họ gây ra cho người dùng. Xu hướng nịnh nọt của một số mô hình—hay mức độ chúng có xu hướng đồng ý và tán thành người dùng—là điều mà OpenAI đã cố gắng giảm bớt trong các bản phát hành GPT mới hơn.

Việc đặt quá nhiều niềm tin vào AI dường như đặc biệt gây rủi ro khi các công cụ này không hoạt động theo预期 mong đợi. Các hệ thống AI tác nhân (Agentic AI) đặc biệt khó dự đoán vì chúng thực hiện các công việc phức tạp một cách độc lập và có thể đưa ra các lỗi kỳ lạ. Điều này khiến ta phải tự hỏi Claude Code và Codex đang làm gì với kỹ năng của các lập trình viên, những người đôi khi cần phải sửa lỗi mà chính AI tạo ra.

Một ví dụ điển hình về nguy cơ của việc giao phó tư duy phản biện cho AI là trường hợp của chính tác giả bài viết. Việc sử dụng OpenClaw (tích hợp Codex bên trong) như một trợ lý hàng ngày để giải quyết các vấn đề cấu hình trên Linux đã mang lại hiệu quả cao. Tuy nhiên, gần đây, khi kết nối Wi-Fi liên tục bị ngắt, trợ lý AI đã đề xuất chạy một loạt lệnh để điều chỉnh driver của card Wi-Fi. Kết quả là máy tính từ chối khởi động bất chấp mọi nỗ lực khắc phục.

Có lẽ, thay vì chỉ đơn giản cố gắng giải quyết vấn đề thay cho tôi, OpenClaw lẽ ra nên dừng lại để dạy tôi cách tự khắc phục sự cố. Như vậy, có thể tôi đã sở hữu một chiếc máy tính—và một bộ não—khả năng hơn.

Chia sẻ:FacebookX
Nội dung tổng hợp bằng AI, mang tính tham khảo. Xem bài gốc ↗