Dùng AI tuyển dụng khiến Gen Z thất nghiệp: Cuộc chiến 6 tháng của một sinh viên để vạch trần bộ mặt thật trong thuật toán xét tuyển
Việc ứng dụng AI vào tuyển dụng đang loại bỏ rất nhiều hồ sơ của giới trẻ một cách phi lý.
Tốt nghiệp trường Ivy League danh giá, sở hữu hàng loạt công trình nghiên cứu trên các tạp chí y khoa hàng đầu thế giới như The Lancet và JAMA, anh Chad Markey ngỡ rằng tấm vé vào chương trình nội trú chỉ là chuyện sớm muộn.
Thế nhưng, thực tế nghiệt ngã đã dội một gáo nước lạnh: Không một lời mời phỏng vấn, chỉ có những lá thư từ chối thẳng thừng. Phải chăng, một dòng code vô tri đã âm thầm "xé xác" hồ sơ của anh trước khi nó kịp đến tay con người?
Nghịch lý của "thế hệ thuật toán" và hố đen mang tên AI
Trong cái không khí se lạnh của mùa thu tại Hanover, New Hampshire, thay vì tận hưởng những ngày nghỉ hiếm hoi trước khi tốt nghiệp tại Dartmouth, Chad Markey lại tự giam mình trong căn hộ nhỏ, đối diện với màn hình máy tính đầy những dòng mã Python. Anh không đang học y, anh đang đi tìm công lý cho chính mình.
Câu chuyện của Markey bắt đầu từ một sự nghi ngờ có cơ sở. Trong khi bạn bè đồng trang lứa nhận được dồn dập các lời mời phỏng vấn, Markey, một ứng viên nặng ký với bảng thành tích đáng nể, lại hoàn toàn bị bỏ rơi.
Anh bắt đầu tìm kiếm câu trả lời trên các hội nhóm Discord và nhận ra một thực trạng đáng sợ: Các bệnh viện đang sử dụng một công cụ sàng lọc AI miễn phí có tên là Cortex để xử lý "núi" hồ sơ khổng lồ.
Nghi vấn đặt ra là: Liệu thuật toán của Cortex có đang hiểu sai các dữ liệu trong hồ sơ của anh?
Cụ thể, trong phần đánh giá sinh viên (MSPE), hồ sơ của Markey ghi chú anh từng có 22 tháng tạm nghỉ vì "lý do cá nhân". Thực tế, đó là khoảng thời gian anh phải vật lộn với căn bệnh viêm cột sống dính khớp (ankylosing spondylitis), một căn bệnh tự miễn khiến anh không thể đứng vững suốt 6 tháng.
Markey lo sợ rằng thuật toán AI đã mặc định gán nhãn cụm từ "lý do cá nhân" là biểu hiện của việc không chịu nổi áp lực học tập, thay vì là một biến cố sức khỏe bất khả kháng.
Đây chính là điểm yếu chết người của các hệ thống AI hiện nay: Chúng xử lý ngôn ngữ dựa trên xác suất và dữ liệu quá khứ, nhưng lại thiếu đi sự thấu cảm và ngữ cảnh cần thiết để hiểu về giá trị của một con người.
Theo nhận định từ CEO của một nền tảng tuyển dụng được trích dẫn bởi tờ The Wired, ngành nhân sự đang rơi vào một "vòng lặp AI diệt vong" (AI doom loop). Các bộ phận nhân sự phàn nàn về làn sóng hồ sơ được tạo ra bởi AI, dẫn đến nhu cầu về các bộ lọc AI mạnh mẽ hơn. Ngược lại, ứng viên cảm thấy bị lọc bỏ một cách bất công, họ lại dùng chính AI để tối ưu hóa từ khóa trong CV.
Kết quả là một cuộc chiến công nghệ mệt mỏi, nơi con người vốn là đối tượng trung tâm của tuyển dụng lại trở nên mờ nhạt nhất.
Một ứng viên đã cay đắng chia sẻ với các nhà nghiên cứu tại Đại học Northeastern rằng: "Giá trị của tôi với tư cách là một con người giờ đây chỉ được đánh giá dựa trên khả năng tôi tự lọc mình qua một loạt các cổng thanh toán tự động".
Tính minh bạch là một khái niệm xa xỉ trong cuộc chơi này. Dù một số bang tại Mỹ như Illinois hay Colorado đã bắt đầu luật hóa việc sử dụng AI trong tuyển dụng, nhưng hầu hết mới chỉ dừng lại ở việc "thông báo cho ứng viên rằng AI đang được sử dụng", chứ chưa thực sự cho phép họ biết thuật toán đã đánh giá mình như thế nào.
Khi dữ liệu lên tiếng
Không cam chịu số phận, Markey đã dùng kỹ năng lập trình Python của mình để tiến hành một thí nghiệm quy mô. Anh tạo ra một bộ dữ liệu giả lập gồm 6.000 ứng viên nội trú với các chỉ số tương đương nhau, nhưng chia thành hai nhóm: Một nhóm dùng ngôn ngữ "lý do cá nhân" và một nhóm dùng ngôn ngữ "tình trạng y khoa".
Kết quả thu được thực sự chấn động: Nhóm sử dụng ngôn ngữ y khoa chính xác có khả năng lọt qua vòng sàng lọc cao hơn tới 66% so với nhóm còn lại, dù thực chất họ là một.
Đáng nói hơn, sau khi Markey chủ động gửi email trực tiếp cho các điều phối viên chương trình để cập nhật về một nghiên cứu mới của mình, tức là tìm cách vượt qua "bức tường" AI để tiếp cận con người, các lời mời phỏng vấn bắt đầu đổ về dồn dập.
Thậm chí có nơi phản hồi chỉ sau hơn một giờ đồng hồ. Điều này càng củng cố niềm tin của anh: Hồ sơ của anh vốn dĩ chưa bao giờ xuất hiện trên bàn làm việc của các giáo sư, nó đã bị AI "giấu biệt" ngay từ vòng gửi xe.
Dù sau đó phía Thalamus (công ty sở hữu Cortex) lên tiếng phủ nhận việc công cụ của họ tự động chấm điểm hay xếp hạng ứng viên, nhưng những sai sót về hiển thị điểm số vẫn bị các chuyên gia tại Đại học California San Francisco (UCSF) vạch trần.
Bác sĩ Steven Pletcher, người giám sát chương trình nội trú tại UCSF, khẳng định đã tận mắt thấy thông tin hiển thị trên Cortex thay đổi từng phút và có những sai lệch "khủng khiếp".
Sự việc của Chad Markey cuối cùng đã có một cái kết có hậu khi anh trúng tuyển vào chương trình tâm thần học tại Đại học Columbia danh tiếng. Tuy nhiên, không phải ai cũng có kiến thức về informatics hay sự kiên trì để dành ra 6 tháng "đấu tay đôi" với thuật toán như Markey.
Trong bối cảnh AI đang dần chiếm lĩnh mọi quy trình, câu chuyện này là một lời cảnh tỉnh về việc cần có những quy định khắt khe hơn như Đạo luật Báo cáo Tín dụng Công bằng (FCRA) tại Mỹ, nơi yêu cầu các công ty kiểm tra lý lịch phải minh bạch dữ liệu và cho phép cá nhân khiếu nại nếu thông tin sai lệch.
*Nguồn: Wired, CNET


