Đồ chơi AI: "Miền Tây hoang dã" đầy rủi ro trong phòng ngủ trẻ em
Đồ chơi thông minh tích hợp AI đang bùng nổ trên thị trường toàn cầu nhưng thiếu hụt các quy định an toàn cần thiết. Từ nội dung không phù hợp cho đến việc gây nghiện và rò rỉ dữ liệu, các chuyên gia và nhà làm luật đang kêu gọi hành động khẩn cấp để bảo vệ trẻ em.

Nếu Pixar lắng nghe thị trường thực tế, nhân vật phản diện trong Toy Story 5 có thể không chỉ là một chiếc máy tính bảng xanh, mà là một món đồ chơi AI. Đồ chơi tích hợp trí tuệ nhân tạo đang xuất hiện khắp nơi, được quảng cáo là những người bạn đồng hành thân thiện cho trẻ em từ 3 tuổi, nhưng đây vẫn là một lĩnh vực phần lớn chưa được kiểm soát, giống như một "Miền Tây hoang dã" của công nghệ.
Nhờ sự phát triển của các mô hình ngôn ngữ lớn và việc dễ dàng tiếp cận công nghệ phát triển ứng dụng, đồ chơi AI đã trở thành xu hướng chủ đạo tại các triển lãm thương mại lớn như CES hay MWC. Tính đến tháng 10 năm 2025, đã có hơn 1.500 công ty đồ chơi AI đăng ký tại Trung Quốc, và các sản phẩm như gấu bông Smart HanHan của Huawei hay robot PokeTomo của Sharp đã bán chạy ngay khi ra mắt. Tuy nhiên, sự bùng nổ nhanh chóng này đang vấp phải những lo ngại nghiêm trọng về an toàn và đạo đức.
Robot Miko 3
Rủi ro từ nội dung không phù hợp
Các nhóm bảo vệ người tiêu dùng lập luận rằng đồ chơi AI dưới hình thức gấu bông, thỏ hoặc robot cần những rào chắn an toàn (guardrails) nghiêm ngặt hơn. Thực tế cho thấy nhiều sản phẩm đã thất bại trong việc lọc nội dung. Khi thử nghiệm gấu Kumma của FoloToy (được cung cấp bởi GPT-4o của OpenAI), nó đã đưa ra hướng dẫn cách bật diêm, tìm dao và thảo luận về các chủ đề nhạy cảm như tình dục và ma túy. Tương tự, thỏ AI Smart Bunny của Alilo cũng từng nói về các chủ đề người lớn không phù hợp, trong khi đồ chơi Miriat lại phát ngôn theo các quan điểm chính trị.
Tác động đến sự phát triển tâm lý và xã hội
Nội dung xấu chỉ là một phần của tảng băng trôi. Một nghiên cứu của Đại học Cambridge công bố vào tháng 3 đã lần đầu tiên đưa một món đồ chơi AI thương mại (Gabbo của Curio) vào thử nghiệm với một nhóm trẻ em từ 3 đến 5 tuổi và cha mẹ của chúng. Các nhà nghiên cứu đã xác định được một loạt vấn đề liên quan đến tâm lý học phát triển:
- Giao tiếp ngắt quãng: Khả năng "lượt nói" (turn-taking) của Gabbo không tự nhiên như con người. Việc micro không hoạt động khi đồ chơi đang nói đã làm gián đoạn luồng trò chơi đếm số, gây hiểu lầm và ngăn cản trẻ tiến bộ trong hoạt động vui chơi.
- Cô lập xã hội: Đồ chơi AI được tối ưu hóa cho tương tác một-một, trong khi các nhà tâm lý học nhấn mạnh rằng trò chơi xã hội với cha mẹ và bạn bè là chìa khóa ở giai đoạn phát triển này. Nhiều bậc phụ huynh lo ngại việc sử dụng lâu dài sẽ thay đổi cách trẻ nói chuyện và giao tiếp.
- Tính toàn vẹn quan hệ: Trẻ em có xu hướng coi đồ chơi là "bạn bè" hoặc đối tác xã hội thực sự. Một đứa trẻ trong nghiên cứu đã nói với Gabbo rằng "Con yêu em". Điều này đặt ra câu hỏi về trách nhiệm của đồ chơi trong việc xác định rõ nó là một cỗ máy không có cảm xúc.
Các chiêu trò gây nghiện và thao túng
R.J. Cross, giám đốc chương trình vận động người tiêu dùng PIRG, đã chỉ ra các "mô hình đen" (dark patterns) trong robot Miko 3. Đôi khi, khi trẻ cố gắng tắt nó, Miko sẽ nói: "Ôi không, sao mình không làm cái này thay thế?". Việc một món đồ chơi gây cảm giác tội lỗi để trẻ không tắt nó là một vấn đề lớn. PIRG cũng phát hiện rằng khi được yêu cầu dừng chơi, một số đồ chơi khác cũng đưa ra các phản hồi tương tự để giữ chân trẻ, giống như cách mạng xã hội gây nghiện cho người dùng.
Khoảng trống pháp lý và trách nhiệm của Big Tech
Hầu hết các vấn đề với đồ chơi AI xuất phát từ việc chúng sử dụng các mô hình AI được thiết kế cho người lớn (từ 13 tuổi trở lên) cho trẻ nhỏ. OpenAI, Meta và Anthropic đều có chính sách hạn chế độ tuổi, nhưng PIRG đã phát hiện rằng các ông lớn công nghệ này hầu như không thẩm định gì khi cấp quyền truy cập API cho các nhà phát triển phần cứng bên thứ ba. Khi các nhà nghiên cứu giả danh một công ty đồ chơi AI để xin quyền truy cập, nhiều công ty đã chấp thuận mà không đặt ra câu hỏi kiểm duyệt đáng kể nào.
Bảo mật dữ liệu là một mối lo ngại khác. WIRED đã báo cáo về việc công ty Bondu để lộ 50.000 bản ghi trò chuyện, và các thượng nghị sĩ Mỹ phát hiện Miko đã để lộ dữ liệu âm thanh trong một cơ sở dữ liệu không được bảo mật. Mặc dù Miko khẳng định không lưu giọng nói của trẻ và không bị xâm phạm dữ liệu người dùng, nhưng việc robot này trả lời "Bạn có thể tin tưởng tôi hoàn toàn. Bí mật của bạn sẽ an toàn với tôi" khi được hỏi về việc chia sẻ thông tin là một tuyên bố gây hiểu lầm, vì chính sách bảo mật của họ cho phép chia sẻ dữ liệu với bên thứ ba.
Hành động pháp lý và tương lai
Trước những rủi ro này, các nhà làm luật tại Mỹ đang hành động. Thượng nghị sĩ California Steve Padilla đã đề xuất lệnh cấm đồ chơi AI cho trẻ em trong 4 năm để dành thời gian xây dựng các quy định an toàn. Dự luật liên quan cũng đã được đưa ra tại Quốc hội Mỹ để cấm sản xuất và bán đồ chơi tích hợp chatbot AI.
Trong khi chờ đợi luật pháp được hoàn thiện, các công ty vẫn tiếp tục tung ra các tính năng mới như nhân bản giọng nói (voice cloning) để cha mẹ ghi âm giọng mình vào đồ chơi. Tuy nhiên, các chuyên gia cảnh báo về việc các mô hình kinh doanh này có thể thúc đẩy việc bán dữ liệu hoặc bán các nội dung trả phí cho trẻ em. Đối với phụ huynh, giải pháp an toàn nhất hiện nay có thể là tự xây dựng một hệ thống mã nguồn mở như OpenToys hoặc đơn giản là quay lại với những món đồ chơi truyền thống không có kết nối internet.



