Sếp mới của bạn có thể là AI, và điều đó đáng lo ngại

15 tháng 4, 2026

Sếp mới của bạn có thể là AI, và điều đó đáng lo ngại

AI không chỉ đang thay đổi công việc. Nó ngày càng có vai trò quyết định ai được tuyển, nhân viên được đánh giá ra sao, và ai bị sa thải. Bằng chứng cho thấy các hệ thống này đang lan rộng nhanh hơn những quy định được đặt ra để kiểm soát chúng.

Lầm tưởng lớn nhất về AI ở nơi làm việc là nó chủ yếu nói về việc robot cướp mất việc làm. Cách nghĩ đó quá hạn hẹp, và thẳng thắn mà nói là quá dễ nghe. Sự thay đổi tức thời hơn thì khó thấy hơn và các công ty cũng dễ chối bỏ hơn. AI đang chuyển sang vai trò quản lý. Nó đang sàng lọc hồ sơ, chấm điểm phỏng vấn, theo dõi tốc độ làm việc trong kho, giám sát giọng điệu của nhân viên tổng đài, dự đoán ai có thể nghỉ việc, và gắn cờ nhân viên có hiệu suất cao hay thấp. Nói cách khác, phần mềm không còn chỉ là công cụ cho nhân viên. Nó đang trở thành một người sếp.

Đây không phải là một lời cảnh báo khoa học viễn tưởng xa vời. Nó đã được tích hợp sẵn trong các phần mềm tuyển dụng và quản lý nơi làm việc được bán bởi các công ty lớn khắp Hoa Kỳ, châu Âu và châu Á. Các nghiên cứu và báo cáo của chính phủ đã chỉ ra xu hướng này trong nhiều năm. Một khảo sát năm 2022 của Hiệp hội Quản lý Nguồn nhân lực cho thấy nhiều nhà tuyển dụng đã sử dụng tự động hóa trong việc tuyển mộ và tuyển dụng. OECD đã cảnh báo rằng việc quản lý bằng thuật toán đang lan rộng ra nhiều lĩnh vực, đặc biệt là logistics, công việc trên các nền tảng, bán lẻ, và dịch vụ khách hàng. Trong các nhà kho, lộ trình và nhịp độ của tài xế có thể được thiết lập bởi phần mềm. Trong công việc gọi xe và giao hàng, các ứng dụng phân công việc, theo dõi hiệu suất và có thể kỷ luật người lao động một cách hiệu quả mà không cần nhiều giải thích từ con người. Hệ thống này có thể không mặc vest, nhưng người lao động vẫn cảm nhận được quyền lực của nó.

Tuyển dụng là lĩnh vực mà vấn đề này trở nên dễ hiểu nhất. Các công ty thích sàng lọc bằng AI vì họ nhận được quá nhiều hồ sơ ứng tuyển. Lời chào mời rất hấp dẫn: hãy để phần mềm phân loại hồ sơ, tiết kiệm thời gian, cắt giảm chi phí, giảm bớt thành kiến của con người. Nhưng lời quảng cáo đó luôn quá đẹp đẽ. Các nhà nghiên cứu đã nhiều lần chỉ ra rằng các thuật toán tuyển dụng có thể phản ánh những thành kiến có sẵn trong dữ liệu được dùng để huấn luyện chúng. Amazon đã từng loại bỏ một công cụ tuyển dụng nội bộ nổi tiếng sau khi phát hiện nó gây bất lợi cho phụ nữ trong một số trường hợp. Lý do là vì nó đã học các mẫu từ những hồ sơ được nộp trong suốt một thập kỷ mà nam giới chiếm ưu thế. Vụ việc đó rất quan trọng vì nó đã phơi bày vấn đề cốt lõi của tất cả các hệ thống này. Chúng không phát hiện ra tài năng trong một môi trường hoàn toàn trong sạch. Chúng học từ lịch sử, mà lịch sử thì thường không công bằng.

Các công cụ phân tích khuôn mặt và giọng nói khiến vấn đề càng trở nên tồi tệ hơn. Một số nhà cung cấp tuyên bố họ có thể suy ra các đặc điểm như sự nhiệt tình, trung thực, hay sự phù hợp với công việc từ các cuộc phỏng vấn qua video. Phần lớn những tuyên bố đó được xây dựng trên nền tảng không vững chắc. Các nhà nghiên cứu và các nhóm hoạt động vì quyền kỹ thuật số đã thách thức cơ sở khoa học của những tuyên bố này, và các nhà quản lý đã bắt đầu chú ý. Ở Illinois, Đạo luật Phỏng vấn qua Video bằng Trí tuệ Nhân tạo đã buộc phải có sự minh bạch nhất định về việc sử dụng AI trong các cuộc phỏng vấn được ghi hình. Ủy ban Cơ hội Việc làm Bình đẳng của Hoa Kỳ (EEOC) cũng đã cảnh báo rằng phần mềm dùng trong tuyển dụng có thể vi phạm luật dân quyền nếu nó loại bỏ những người khuyết tật hoặc các nhóm được bảo vệ khác mà không có lý do chính đáng. Sự thật phũ phàng là có quá nhiều AI tại nơi làm việc ra đời dưới vỏ bọc của sự hiệu quả trước khi chúng bị buộc phải chứng minh là công bằng.

Khía cạnh giám sát thậm chí có thể còn đáng lo ngại hơn. Trong và sau đại dịch, việc giám sát kỹ thuật số đã bùng nổ. Các nhà tuyển dụng có thêm những công cụ mới để ghi lại các lần gõ phím, chụp ảnh màn hình, theo dõi thời gian ngồi tại bàn, và chấm điểm năng suất. AI đã giúp bộ máy đó có thể mở rộng quy mô hơn. Thay vì một người quản lý thỉnh thoảng kiểm tra, các hệ thống có thể liên tục xếp hạng nhân viên so với các mục tiêu đề ra. Tại các tổng đài, công nghệ phân tích giọng nói có thể đánh giá tốc độ, sự ngắt quãng, khoảng lặng và việc tuân thủ kịch bản. Trong các trung tâm hoàn tất đơn hàng, máy quét nhiệm vụ và bảng theo dõi hiệu suất có thể thúc đẩy sản lượng từng phút một. Các công ty cho rằng đây chỉ là hoạt động vận hành hiện đại. Những người chỉ trích gọi nó đúng với cảm giác mà nó mang lại: sự giám sát kiểu công nghiệp được đưa vào công việc văn phòng và dịch vụ.

Bằng chứng cho thấy cái giá mà con người phải trả là có thật. Tổ chức Lao động Quốc tế và các cơ quan tập trung vào lao động khác đã chỉ ra việc quản lý bằng thuật toán là một nguồn gây căng thẳng, mất tự chủ và kỷ luật thiếu minh bạch. Người lao động thường không biết họ đang bị chấm điểm như thế nào hay làm cách nào để khiếu nại một đánh giá tồi. Điều đó quan trọng vì hậu quả không hề trừu tượng. Một điểm số thấp có thể đồng nghĩa với ít ca làm hơn, lương thấp hơn, bị từ chối thăng chức, hoặc bị chấm dứt hợp đồng. Và khi quyết định được chôn sâu bên trong một hệ thống độc quyền, việc quy trách nhiệm nhanh chóng trở nên khó khăn. Người quản lý đổ lỗi cho phần mềm. Nhà cung cấp đổ lỗi cho khách hàng. Người lao động chỉ còn biết tranh cãi với một cỗ máy mà họ không thể kiểm tra.

Có một lập luận phản bác phổ biến, và nó không hề vô lý. Các nhà quản lý con người cũng có thành kiến. Họ thiên vị, bỏ sót, rập khuôn mọi người, và đưa ra quyết định theo cảm tính. Điều đó là sự thật. Bất cứ ai giả vờ rằng cách quản lý kiểu cũ là công bằng và hợp lý thì chỉ đang bán hoài niệm mà thôi. Nhưng đây chính là lý do tại sao AI cẩu thả lại nguy hiểm đến vậy. Nó có thể nhân rộng cùng một đánh giá tồi lên hàng ngàn người cùng một lúc, dưới một vỏ bọc giả tạo của sự khách quan khoa học. Thành kiến của con người thật xấu xí. Thành kiến tự động còn xấu xí hơn vì nó được đóng mác là 'dựa trên dữ liệu'.

Cũng có những lý do thực tế về năng suất cho một số hình thức tự động hóa nơi làm việc. Phần mềm xếp lịch có thể giảm bớt sự hỗn loạn. Việc phát hiện gian lận có thể bảo vệ công ty và khách hàng. Các công cụ giúp tóm tắt cuộc họp hoặc tự động hóa các công việc giấy tờ lặp đi lặp lại có thể giải phóng người lao động để họ làm những việc tốt hơn. Không phải mọi cách sử dụng AI trong quản lý đều là lạm dụng hay phi lý. Câu hỏi nghiêm túc không phải là liệu AI có thuộc về nơi làm việc hay không. Nó đã ở đó rồi. Cuộc chiến thực sự là về việc nó nên có quyền lực ở đâu, nên bị giới hạn ở đâu, và ai được quyền kiểm tra nó.

Các nhà quản lý cuối cùng cũng bắt đầu hành động, dù không đủ nhanh. Luật của thành phố New York về các công cụ ra quyết định việc làm tự động yêu cầu kiểm tra thành kiến đối với một số công nghệ tuyển dụng nhất định. Đạo luật AI của Liên minh châu Âu phân loại một số hệ thống AI liên quan đến việc làm là có rủi ro cao, điều này đồng nghĩa với các nghĩa vụ chặt chẽ hơn về quản lý rủi ro, tài liệu và giám sát. Tại Hoa Kỳ, Ủy ban Thương mại Liên bang (FTC), EEOC và Bộ Tư pháp đều đã bày tỏ lo ngại về việc sử dụng AI một cách không công bằng hoặc lừa đảo. Nhưng việc thực thi vẫn chưa đồng đều, và thị trường đang lao về phía trước. Các công ty đang mua công cụ trước và hỏi các vấn đề pháp lý sau.

Điều đó thật liều lĩnh. Nếu một thuật toán có thể định hình kế sinh nhai của một người, nó phải đối mặt với một tiêu chuẩn cao hơn so với một ứng dụng tiếp thị hay một chiêu trò chatbot. Các nhà tuyển dụng nên bị yêu cầu phải thông báo cho người lao động khi AI được sử dụng trong việc tuyển dụng, đánh giá, xếp lịch hoặc kỷ luật. Họ phải giải thích, bằng ngôn ngữ đơn giản, dữ liệu nào được đưa vào và kết quả nào được đưa ra. Việc kiểm tra độc lập nên là tiêu chuẩn, chứ không phải là một màn kịch PR tùy chọn. Người lao động nên có một con đường rõ ràng để khiếu nại các quyết định lên một người thật có thẩm quyền thực sự. Và các nhà quản lý nên ngừng giả vờ rằng các nguyên tắc tự nguyện là đủ. Chúng không hề đủ.

Vấn đề sâu xa hơn mang tính văn hóa cũng như kỹ thuật. Quá nhiều giám đốc điều hành nghe thấy từ AI và cho rằng đó là sự hiện đại, hiệu quả và trí tuệ trung lập. Đó là một lối suy nghĩ lười biếng. Một hệ thống quản lý được thiết kế tồi không trở nên khôn ngoan hơn chỉ vì nó sử dụng học máy. Nó chỉ trở nên nhanh hơn trong việc đưa ra các quyết định tồi. Nơi làm việc của tương lai không nên được xây dựng trên một thỏa thuận ngầm, nơi người lao động từ bỏ nhân phẩm và quy trình hợp lý để đổi lấy phần mềm tiện lợi.

AI có thể giúp mọi người làm việc tốt hơn. Nó cũng có thể biến công việc thành một hệ thống lạnh lùng hơn, ít trách nhiệm giải trình hơn và mang tính trừng phạt hơn. Cả hai tương lai đều có thể xảy ra, và việc giả vờ như không phải vậy là một sự trốn tránh trách nhiệm. Phép thử thực sự rất đơn giản: nếu một công ty tin tưởng AI để đánh giá nhân viên, thì công chúng có toàn quyền đánh giá việc sử dụng AI của công ty đó. Sự giám sát đó không phải là chống công nghệ. Đó là yêu cầu tối thiểu cho một thị trường lao động vẫn tuyên bố coi trọng con người hơn các chỉ số.

Nguồn: Editorial Desk

Ấn phẩm

The World Dispatch

Nguồn: Editorial Desk

Danh mục: AI