Không chỉ Carballo, hiện nay, rất nhiều người đi xin việc cũng rơi vào cảnh ngộ tương tự mà nguyên nhân chủ yếu là do nhà tuyển dụng dùng thuật toán, các hệ thống có công nghệ trí tuệ nhân tạo (AI) để tự động sàng lọc những ứng viên phù hợp với yêu cầu.
Carballo, một sinh viên 27 tuổi gốc Latinh, cho biết hầu như tất cả các nhà tuyển dụng thời nay đều đã sử dụng các hệ thống tự động sàng lọc kiểu này. Anh gần như không có cơ hội để thể hiện trực tiếp với nhà tuyển dụng khi hồ sơ bị loại ngay từ khâu đánh giá tự động do một chiếc máy thực hiện.
Trên thực tế, ngành phát triển công cụ hỗ trợ tuyển dụng có yếu tố AI hiện có giá trị ước tính hơn 500 triệu USD, với nhiều sản phẩm đã đưa vào ứng dụng như các chương trình nhận diện khuôn mặt và đánh giá biểu cảm ứng viên trong phỏng vấn video hay các nền tảng sàng lọc hồ sơ để lựa chọn những ứng viên phù hợp với mô tả công việc.
Alex Enger, nghiên cứu sinh chuyên ngành ứng dụng AI trong tuyển dụng nhân sự thuộc Viện Brookings cho biết, những chương trình và nền tảng này ngày càng phổ biến nhờ tốc độ xử lý hồ sơ nhanh và chi phí thấp.
Theo hãng khảo sát Mercer, hơn 55% các nhà quản trị nhân sự (HR) tại Mỹ dựa vào các thuật toán để đưa ra quyết định tuyển dụng. AI được sử dụng ngay từ những khâu đầu tiên trong quy trình tuyển dụng, từ khâu quảng cáo tuyển dụng.
Đại dịch Covid-19 cũng góp phần đẩy nhanh tốc độ đưa những công cụ này vào ứng dụng. Tuy nhiên, hiện chưa có nhiều đơn vị phát triển chú trọng đảm bảo các chương trình này hoạt động một cách hoàn toàn khách quan.
Theo chuyên gia Raghavan, vấn đề nằm ở chỗ rất khó phát hiện khi nào thì yếu tố thiên vị vô tình xuất hiện trong khi phát triển một thuật toán dựa theo cơ chế học máy.
Ngoài ra, một trong những điều mà những ứng viên Carballo lo ngại nhất là quy trình nhận diện khuôn mặt không khách quan, khiến các hệ thống đều tự động loại bỏ tất cả những người có nhận diện khuôn mặt như anh, những người thuộc nhóm thiểu số.
Trên thực tế, năm 2017, tập đoàn thương mại điện tử hàng đầu thế giới Amazon đã phải dỡ bỏ hệ thống sàng lọc hồ sơ tuyển dụng có sự hỗ trợ của công nghệ AI sau một thời gian đưa vào sử dụng vì phát hiện lỗi phân biệt đối xử với nữ giới.
Theo chuyên gia Enger, một trong những nguyên nhân khiến các đơn vị phát triển hầu như đều bỏ qua khâu thử nghiệm tính khách quan của các hệ thống là chi phí cao và thời gian kéo dài. Họ sẽ chỉ thực hiện những quy trình này nếu như có yêu cầu từ giới chức quản lý.
Nguy cơ phân biệt đối xử cũng là điều gây nhiều tranh cãi nhất khi các nghị sĩ thảo luận về các điều luật để quản lý việc sử dụng công nghệ AI trong các lĩnh vực, đặc biệt là trong quản trị nhân lực. Trên thực tế, các nhà quản lý của Liên minh châu Âu (EU) đã nhiều lần thảo luận về vấn đề này và chuẩn bị đưa ra các quy định về sử dụng AI trong tuyển dụng.
Giới chức quản lý đã đề xuất Nghị viện châu Âu đưa các công ty bán các hệ thống hỗ trợ tuyển dụng bằng công nghệ AI vào nhóm “nguy cơ cao”, đồng nghĩa mọi công ty trong lĩnh vực này phải tham gia một cơ sở dữ liệu công khai, đảm bảo các dữ liệu khách quan, có tính đại diện cao, hoàn chỉnh và không có lỗi.
Trong khi đó, các nghị sĩ Mỹ đã cân nhắc các điều luật liên bang để loại bỏ nguy cơ thiên vị khi dùng các thuật toán trong lĩnh vực tuyển dụng.