Cuộc khủng hoảng Deepfake khiêu dâm trong trường học nghiêm trọng hơn nhiều so với tưởng tượng

15 tháng 4, 2026·12 phút đọc

Phân tích của WIRED và Indicator cho thấy gần 90 trường học và hơn 600 học sinh trên toàn cầu bị ảnh hưởng bởi các bức ảnh nude giả tạo bằng AI. Công nghệ tạo ra hình ảnh khiêu dâm này ngày càng dễ tiếp cận, khiến vấn đề trở nên nghiêm trọng và không có dấu hiệu thuyên giảm.

Cuộc khủng hoảng Deepfake khiêu dâm trong trường học nghiêm trọng hơn nhiều so với tưởng tượng

Vấn đề thường bắt đầu từ một bức ảnh được tải xuống từ mạng xã hội.

Trên khắp thế giới, học sinh nam đang lưu lại các hình ảnh trên Instagram và Snapchat của các bạn nữ cùng trường và sử dụng các ứng dụng độc hại có khả năng "cởi đồ" (nudify) để tạo ra các bức ảnh hoặc video nude giả của họ. Những nội dung deepfake này có thể nhanh chóng lan truyền khắp trường học, để lại cho nạn nhân cảm giác bị sỉ nhục, xâm phạm, tuyệt vọng và sợ hãi rằng những hình ảnh đó sẽ ám ảnh họ mãi mãi.

Cuộc khủng hoảng deepfake đang tấn công vào các trường học bắt đầu chậm chạp vài năm trước, nhưng kể từ đó nó đã phát triển mạnh mẽ khi công nghệ tạo ra hình ảnh khiêu dâm trở nên dễ tiếp cận hơn. Theo một rà soát các sự cố được công bố bởi WIRED và Indicator (một ấn phẩm tập trung vào sự lừa đảo kỹ thuật số và thông tin sai lệch), đã có khoảng 90 trường học trên toàn cầu bị ảnh hưởng bởi các sự cố lạm dụng tình dục deepfake và tác động đến hơn 600 học sinh.

Các phát hiện cho thấy rằng kể từ năm 2023, học sinh — chủ yếu là nam sinh ở trường trung học — ở ít nhất 28 quốc gia đã bị buộc tội sử dụng AI tạo sinh để nhắm vào bạn cùng lớp bằng các deepfake khiêu dâm. Hình ảnh khiêu dâm rõ ràng, chứa nội dung người chưa thành niên, được coi là tài liệu lạm dụng tình dục trẻ em (CSAM). Phân tích này được tin là lần đầu tiên xem xét các trường hợp lạm dụng deepfake AI thực tế diễn ra tại các trường học trên toàn cầu.

Nhìn chung, phân tích cho thấy tầm ảnh hưởng toàn cầu của công nghệ "cởi đồ" gây hại bằng AI, có thể mang lại cho người tạo hàng triệu đô la mỗi năm, và cho thấy rằng trong nhiều sự cố, nhà trường và các quan chức thực thi pháp luật thường không được chuẩn bị để phản ứng với các sự cố lạm dụng tình dục nghiêm trọng này.

Tại Bắc Mỹ, đã có gần 30 trường hợp lạm dụng tình dục deepfake được báo cáo kể từ năm 2023 — bao gồm một vụ có hơn 60 nạn nhân được cho là bị hại, một vụ nạn nhân bị tạm thời đuổi học, và các vụ khác mà học sinh tại nhiều trường học bị nhắm đến đồng thời. Hơn 10 trường hợp đã được báo cáo công khai tại Nam Mỹ, hơn 20 trường hợp trên khắp châu Âu, và hơn một chục trường hợp khác tại Úc và Đông Á kết hợp.

Quy mô thực tế của việc lạm dụng tình dục deepfake diễn ra trong trường học có thể cao hơn nhiều. Một cuộc khảo sát của cơ quan trẻ em Liên Hợp Quốc UNICEF ước tính rằng 1,2 triệu trẻ em đã có deepfake tình dục được tạo ra vào năm ngoái. Một trong năm người trẻ tại Tây Ban Nha cho các nhà nghiên cứu của Tổ chức Cứu trợ Trẻ em (Save the Children) biết rằng deepfake nude đã được tạo ra về họ. Nhóm bảo vệ trẻ em Thorn phát hiện một trong tám thanh thiếu niên biết ai đó bị nhắm mục tiêu, và năm 2024, 15% học sinh được khảo sát bởi Trung tâm Công nghệ và Dân chủ cho biết họ biết về các deepfake do AI tạo ra liên quan đến trường học của mình.

"Tôi nghĩ bạn sẽ rất khó để tìm thấy một trường học không bị ảnh hưởng bởi điều này," ông Lloyd Richardson, giám đốc công nghệ tại Trung tâm Bảo vệ Trẻ em Canada cho biết. "Điều quan trọng nhất là chúng ta có thể giúp đỡ các nạn nhân như thế nào khi điều này xảy ra, bởi vì hậu quả của nó có thể rất lớn."

Phân tích của WIRED và Indicator đã xem xét các sự cố đã được báo cáo công khai với các chi tiết cụ thể, chẳng hạn như địa điểm của các trường học và số lượng nạn nhân tiềm năng. Phần lớn là các báo cáo bằng tiếng Anh, thiếu dữ liệu cho nhiều quốc gia. Nhiều sự cố không bao giờ được báo cáo trên báo chí, hoặc có thể không bao gồm các chi tiết cụ thể nếu được báo cáo, thay vào đó được xử lý riêng tư bởi nhà trường và các quan chức thực thi pháp luật.

Tuy nhiên, có những mô hình rõ ràng xuất hiện. Trong hầu hết các trường hợp, nam thanh thiếu niên bị cáo buộc chịu trách nhiệm tạo ra hình ảnh hoặc video. Chúng thường được chia sẻ trong các ứng dụng mạng xã hội hoặc qua nhắn tin tức thời với bạn cùng lớp. Và chúng gây hại rất lớn cho nạn nhân. "Tôi lo lắng rằng mỗi khi họ nhìn thấy tôi, họ sẽ thấy những bức ảnh đó," một nạn nhân tại bang Iowa nói vào đầu năm nay. "Cô ấy đã khóc. Cô ấy không ăn uống," gia đình của một nạn nhân khác cho biết.

Trong nhiều trường hợp, nạn nhân thường không muốn đến trường hoặc phải đối mặt với những người đã tạo ra hình ảnh hoặc video khiêu dâm của họ. "Cô ấy cảm thấy tuyệt vọng vì cô ấy biết những hình ảnh này có khả năng sẽ xuất hiện trên internet và tiếp cận những kẻ ấu dâm," luật sư Shane Vogt và ba sinh viên luật Yale, Catharine Strong, Tony Sjodin và Suzanne Castillo, những người đang đại diện cho một thiếu niên chưa tên tại New Jersey trong hành động pháp lý chống lại dịch vụ cởi đồ, cho biết. "Cô ấy bị đau khổ nghiêm trọng trước việc biết rằng những hình ảnh này đang ở đó, và cô ấy sẽ phải giám sát internet trong suốt phần còn lại của cuộc đời mình để ngăn chúng lan truyền."

Tại Hàn Quốc và Úc, các trường học đã cho học sinh tùy chọn không đưa ảnh của họ vào sách kỷ yếu hoặc ngừng đăng hình ảnh của học sinh trên các tài khoản mạng xã hội chính thức của họ, trích dẫn việc sử dụng chúng cho potential deepfake abuse. "Trên toàn thế giới, đã có những trường hợp ảnh trường học được lấy từ các trang mạng xã hội công cộng, được chỉnh sửa bằng AI và biến thành deepfake gây hại," một trường học tại Úc cho biết. "Hình ảnh sẽ thay vào đó là góc nghiêng, bóng đen, phía sau đầu, chụp nhóm từ xa, bộ lọc sáng tạo hoặc ảnh kho được phê duyệt."

Deepfake tình dục được tạo ra bằng AI đã tồn tại từ khoảng cuối năm 2017; tuy nhiên, khi các hệ thống AI tạo sinh xuất hiện và trở nên mạnh mẽ hơn, chúng đã dẫn đến một hệ sinh thái bóng tối của các công nghệ "cởi đồ" hoặc "lột đồ". Hàng chục ứng dụng, bot và trang web cho phép bất kỳ ai tạo ra hình ảnh và video khiêu dâm của người khác chỉ với vài cú nhấp chuột, thường không cần kiến thức kỹ thuật.

"Thay đổi của AI là về quy mô, tốc độ và khả năng tiếp cận," ông Siddharth Pillai, đồng sáng lập và giám đốc của Quỹ RATI, một tổ chức có trụ sở tại Mumbai làm việc để ngăn ngừa bạo lực đối với phụ nữ và trẻ em cho biết. "Rào cản kỹ thuật đã giảm đáng kể, điều này có nghĩa là nhiều người hơn, bao gồm cả thanh thiếu niên, có thể tạo ra các kết quả thuyết phục hơn với nỗ lực tối thiểu. Cũng như với nhiều tác hại do AI kích hoạt, điều này dẫn đến sự dư thừa nội dung."

Bà Amanda Goharian, giám đốc nghiên cứu và thông tin chi tiết tại nhóm an toàn trẻ em Thorn, cho biết nghiên cứu của họ chỉ ra rằng có những động cơ khác nhau liên quan đến việc thanh thiếu niên tạo ra lạm dụng deepfake, dao động từ động cơ tình dục, sự tò mò, trả thù, hoặc thậm chí là thanh thiếu niên thách thức nhau tạo ra hình ảnh. Các nghiên cứu liên quan đến người lớn đã tạo ra lạm dụng tình dục deepfake cũng cho thấy một loạt các lý do khác nhau tại sao hình ảnh có thể được tạo ra. "Mục tiêu không phải lúc nào cũng là sự thỏa mãn tình dục," ông Pillai nói. "Ngày càng nhiều, ý định là sự sỉ nhục, hạ thấp và kiểm soát xã hội."

"Vấn đề không chỉ là công nghệ," bà Tanya Horeck, giáo sư nghiên cứu truyền thông nữ quyền và nhà nghiên cứu tập trung vào bạo lực dựa trên giới tính, người đã xem xét các deepfake khiêu dâm tại các trường học ở Vương quốc Anh tại Đại học Anglia Ruskin cho biết. "Đó là về các động lực giới lâu đời tạo điều kiện cho these tội phạm này."

Khi số lượng sự cố deepfake tại các trường học đã tăng lên trong những năm gần đây, cách chúng được xử lý bởi các trường học và cơ quan thực thi pháp luật có thể rất khác nhau. Phụ huynh đã phàn nàn rằng không có đủ hành động được thực hiện bởi các quan chức. Trong một trường hợp, reportedly mất ba ngày để một trường học báo cáo sự cố cho cảnh sát; trong một trường hợp khác, một nạn nhân tuyên bố không có hậu quả ngay lập tức đối với các cá nhân bị cáo buộc chịu trách nhiệm. Đôi khi học sinh đối mặt với các cáo buộc vì tạo và sở hữu CSAM, trong khi những người khác đối mặt với các cáo buộc hình sự khác hoặc bị đình chỉ học. Vào tháng 3, hai học sinh tại Pennsylvania đã nhận tội tại tòa án vị thành niên và sau đó bị kết án 60 giờ phục vụ cộng đồng vì các cáo buộc trọng tội liên quan đến CSAM vì tạo ra hình ảnh và video của 60 cô gái.

Trong nhiều trường hợp, các cô gái tuổi teen và gia đình của họ là những người đã chiến đấu lại việc tạo ra lạm dụng tình dục deepfake, thường di chuyển nhanh hơn các chính trị gia, những người thường chậm chạp trong hành động. Thanh thiếu niên đã bỏ lớp để thể hiện sự ủng hộ đối với nạn nhân, biểu tình chống lại những thủ phạm bị cáo buộc, tham gia vào việc tạo ra các khóa đào tạo trực tuyến và thay đổi luật pháp, bao gồm cả việc đóng góp vào việc tạo ra Đạo luật Take It Down, yêu cầu các nền tảng công nghệ xóa bỏ hình ảnh thân mật không đồng ý trong vòng 48 giờ. (Tách biệt, Anh và EU đang trong quá trình cấm các ứng dụng cởi đồ, trong khi cơ quan quản lý eSafety của Úc đã thực hiện hành động chống lại một số dịch vụ).

"Thường khi trẻ em nói lên những điều xảy ra, phản ứng là hoàn toàn không đủ," bà Afrooz Kaviani Johnson, chuyên gia bảo vệ trẻ em tại UNICEF cho biết. "Cách những người lớn này phản ứng với một lời thú nhận có thể ảnh hưởng đáng kể đến cả sự phục hồi của họ và khả năng họ sẽ nói lên nếu có điều gì khác xảy ra."

"Có rất nhiều việc phải làm để thực sự giúp các trường học bắt kịp với bối cảnh đe dọa, quyền của họ, sự răn đe, chính sách, sự sẵn sàng khủng hoảng," ông Evan Harris, một cựu giáo viên và người sáng lập của Pathos Consulting Group, người đã chạy các khóa đào tạo cho các trường học trên khắp Hoa Kỳ cho biết. Ông Harris cho biết các công tác chuẩn bị có thể bao gồm mọi thứ từ việc giáo dục học sinh về những tác hại và tính bất hợp pháp của việc tạo ra deepfake khiêu dâm, đến việc giúp các quản trị viên trường học suy nghĩ về pháp y kỹ thuật số và thu thập bằng chứng. "Rất cần thiết rằng chúng ta phải cung cấp cho học sinh các công cụ, ngôn ngữ và sự hỗ trợ nếu họ trải qua deepfake hoặc biết về chúng," bà Robyn Little, giám đốc cấp cao về chiến lược kỹ thuật số giáo dục tại Trường McDonogh ở Maryland, nơi đã làm việc với ông Harris về đào tạo, cho biết.

Các vấn đề của trường học với deepfake vượt ra ngoài việc học sinh tạo ra hình ảnh tình dục nguy hiểm của nhau. Trẻ em cũng đã tạo ra deepfake khiêu dâm rõ ràng của giáo viên của họ vào nhiều dịp, đưa họ vào tình huống sỉ nhục hoặc khiến họ nói những điều họ thực sự chưa nói. Một trường học tại Oregon đã buộc phải thuê giáo viên thay thế sau khi giáo viên chính thức của họ gọi nghỉ ốm, phản đối một tài khoản mạng xã hội chia sẻ hình ảnh bị thao túng của nhân viên. Giáo viên cũng được mô tả là quỳ xuống và ăn thức ăn cho chó hoặc cầm súng, theo một báo cáo khác.

"Mặc dù [lạm dụng tình dục deepfake] có thể là rủi ro deepfake cấp bách, nghiêm trọng và gây thiệt hại nhất," ông Harris nói, "nó là một trong sáu hoặc nhiều rủi ro đang sôi sục cùng lúc và các trường học đặc dễ bị tổn thương và thực sự chưa sẵn sàng cho nó vì thiếu nguồn lực và vì quá nhiều việc phải giải quyết."

Bài viết được tổng hợp và biên soạn bằng AI từ các nguồn tin tức công nghệ. Nội dung mang tính tham khảo. Xem bài gốc ↗