Bị AI từ chối hồ sơ xin việc? Cuộc chiến đơn độc của một sinh viên y khoa
Chad Markey, một sinh viên y khoa xuất sắc, nghi ngờ công cụ sàng lọc AI đã vô tình loại hồ sơ của mình do hiểu sai về lý do nghỉ học. Anh đã dành hàng tháng trời để lập trình và điều tra, hé lộ những lỗ hổng về tính minh bạch trong hệ thống tuyển dụng tự động.

Chad Markey, một sinh viên năm cuối y khoa tại trường Dartmouth, có thành tích đáng mơ ước: điểm số cao, các bài nghiên cứu được đăng trên tạp chí y khoa hàng đầu như JAMA và The Lancet, cùng những thư giới thiệu glowing (tuyệt vời). Tuy nhiên, vào mùa thu năm ngoái, khi các bạn đồng trang lứa lần lượt nhận được lời mời phỏng vấn cho các chương trình đào tạo bác sĩ nội trú (residency), anh lại rơi vào im lặng tuyệt đối.
Thay vì tận hưởng những ngày nghỉ难得 hiếm có, Markey khóa mình trong căn hộ và bắt đầu một cuộc chiến riêng. Với kiến thức về Python và một sự bất công đang sục sôi, anh quyết tâm tìm ra câu trả lời cho câu hỏi mà hàng triệu người tìm việc đang tự hỏi: Liệu AI có đang vùi dập hồ sơ của tôi không?
AI đang xử lý dữ liệu
Nghi ngờ về "Hộp đen" thuật toán
Vấn đề của Markey bắt nguồn từ một chi tiết trong hồ sơ Đánh giá Hiệu suất Sinh viên Y khoa (MSPE). Tài liệu này ghi nhận anh đã "tự nguyện" nghỉ học ba lần với tổng thời gian 22 tháng vì "lý do cá nhân". Thực tế, Markey bị chẩn đoán mắc viêm cột sống dính khớp, một bệnh tự miễn ảnh hưởng đến cột sống, khiến anh không thể đứng hay làm việc trong thời gian dài. Những lần nghỉ học này là bắt buộc về mặt y tế, nhưng cách diễn đạt trong hồ sơ khiến anh lo ngại sẽ bị các công cụ sàng lọc tự động hiểu lầm là không đủ năng lực chịu đựng áp lực.
Ngành y tế đang chứng kiến sự bùng nổ của các ứng dụng AI trong tuyển dụng. Do đại dịch COVID-19, quy trình phỏng vấn chuyển sang trực tuyến khiến số lượng hồ sơ xin việc tăng vọt. Để xử lý "núi" hồ sơ này, Hiệp hội Y khoa Hoa Kỳ (AAMC) đã hợp tác với Thalamus – nhà phát triển công cụ sàng lọc Cortex. Công cụ này sử dụng các mô hình tạo sinh của OpenAI để chuẩn hóa điểm số giữa các trường y khoa và giúp các chương trình đào tạo lọc ứng viên.
Markey lo sợ rằng thuật toán của Cortex hoặc các công cụ tương tự có thể đang quét các từ khóa như "nghỉ phép tự nguyện" và tự động hạ điểm hồ sơ của anh mà không có sự xem xét của con người.
Cuộc điều tra bằng mã nguồn
Không chấp nhận ngồi yên, Markey đã chuyển mình thành một nhà điều tra kỹ thuật số. Trong sáu tháng, anh đã viết hàng nghìn dòng mã Python, tạo ra các tập dữ liệu giả lập và cố gắng "kỹ thuật ngược" (reverse engineer) hệ thống mà anh nghi ngờ đã loại mình.
Mạng lưới dữ liệu phức tạp
Anh bắt đầu bằng cách chạy các công cụ kiểm tra thiên kiến AI trên các phiên bản khác nhau của văn bản mô tả việc nghỉ học trong hồ sơ. Kết quả cho thấy thuật toán xử lý ngôn ngữ tự nhiên (NLP) đánh giá cụm từ "lý do cá nhân" tiêu cực hơn so với mô tả chính xác về tình trạng bệnh lý.
Để đi sâu hơn, Markey đã tạo ra một tập dữ liệu tổng hợp gồm 6.000 ứng viên giả định. Anh chia họ thành hai nhóm: một nhóm có ngôn ngữ mô tả nghỉ học giống hồ sơ của anh ("lý do cá nhân") và nhóm còn lại có mô tả y tế chính xác. Cả hai nhóm có điểm số và thành tích học tập tương đương. Khi chạy qua mô hình hồi quy logistic để chọn ra 12% ứng viên hàng đầu, nhóm có mô tả y tế chính xác có khả năng trúng tuyển cao hơn 66% so với nhóm kia.
Markey thậm chí còn tìm thấy bằng sáng chế của một công ty sàng lọc ứng viên y khoa (Medicratic, sau này được Thalamus mua lại) và sử dụng GitHub Copilot cùng Claude Code để xây dựng lại hệ thống chấm điểm dựa trên mô tả trong bằng sáng chế đó. Kết quả thử nghiệm của chính anh cũng cho thấy sự thay đổi nhỏ trong ngôn từ có thể dẫn đến sự chênh lệch lớn về điểm số.
Sự thật và hệ lụy
Cuộc điều tra của Markey đã mang lại kết quả thực tế. Sau khi anh chủ động gửi email cho các điều phối viên chương trình đào tạo để làm rõ về thành tích nghiên cứu mới nhất của mình, các lời mời phỏng vấn bắt đầu đổ về chỉ trong vài giờ. Cuối cùng, anh đã trúng tuyển vào chương trình tâm thần học tại Bệnh viện Đại học Columbia New York.
Tuy nhiên, câu chuyện về AI vẫn chưa kết thúc tại đó. Khi Markey yêu cầu Thalamus cung cấp dữ liệu cá nhân theo Đạo luật Quyền riêng tư của New Hampshire, công ty này xác nhận rằng các chương trình anh nộp đơn không sử dụng công cụ cụ thể mà anh đã kỹ thuật ngược. Thalamus cũng khẳng định Cortex không sử dụng AI để chấm điểm hay xếp hạng ứng viên, mà chủ yếu dùng để chuẩn hóa điểm số.
Dù vậy, sự việc đã phơi bày một thực trạng đáng lo ngại: Sự thiếu minh bạch trong các công cụ tuyển dụng AI.
"Đó là một hệ thống rất mờ đục ở trung tâm, và bất kỳ sự giải thích nào về việc nó đưa ra quyết định như thế nào đều bị ẩn giấu," Shea Brown, CEO của công ty kiểm toán thuật toán Babl AI, nhận định về các mô hình ngôn ngữ lớn (LLM).
Hiện tại, chỉ một số ít bang tại Mỹ có quy định về việc sử dụng AI trong tuyển dụng, và chưa có quy tắc nào thực sự trao quyền cho cá nhân biết cách thuật toán đánh giá họ. Không phải ai cũng có kỹ năng lập trình như Markey để đấu tranh lại với những quyết định máy móc. Câu chuyện của anh là một lời cảnh tỉnh về nhu cầu cấp thiết phải xây dựng quy trình "đối xử công bằng" (due process) trong kỷ nguyên AI, nơi các thuật toán ngày càng đóng vai trò quyết định trong tương lai nghề nghiệp của con người.
Bài viết liên quan

Công nghệ
Tổng hợp thị trường M&A an ninh mạng: 33 thương vụ được công bố trong tháng 4/2026
04 tháng 5, 2026

Công nghệ
AI Operator: Vai trò quan trọng nhất đang định hình lại Silicon Valley
06 tháng 5, 2026

Công nghệ
Đánh giá Smeg Forte Stand Mixer: Công suất mạnh mẽ, hiệu năng còn nhiều điểm tranh cãi
06 tháng 5, 2026
