AI बन रहा है आपका नया बॉस, और यह एक बड़ी चिंता की बात है
15 अप्रैल 2026
AI सिर्फ़ नौकरियाँ नहीं बदल रहा है। अब यह तय कर रहा है कि नौकरी किसे मिलेगी, कर्मचारियों का काम कैसा है, और किसे निकाला जाएगा। सबूत बताते हैं कि ये सिस्टम उन नियमों से कहीं ज़्यादा तेज़ी से फैल रहे हैं जो इन्हें कंट्रोल करने के लिए बने हैं।
कामकाज की दुनिया में AI को लेकर सबसे बड़ा मिथक यह है कि रोबोट नौकरियां छीन लेंगे। यह सोच बहुत संकीर्ण है, और सच कहें तो बहुत आरामदायक भी। असली बदलाव को देखना ज़्यादा मुश्किल है और कंपनियों के लिए इससे इनकार करना ज़्यादा आसान है। AI अब मैनेजमेंट में दाखिल हो रहा है। यह रिज्यूमे की जांच कर रहा है, जॉब इंटरव्यू में स्कोर दे रहा है, वेयरहाउस में काम की रफ़्तार पर नज़र रख रहा है, कॉल सेंटर में बातचीत के लहज़े को मॉनिटर कर रहा है, और यह अनुमान लगा रहा है कि कौन नौकरी छोड़ सकता है। यह कर्मचारियों को अच्छे या बुरे परफॉर्मर के तौर पर भी पहचान रहा है। दूसरे शब्दों में, सॉफ्टवेयर अब सिर्फ़ कर्मचारियों का एक टूल नहीं रहा। यह उनका बॉस बनता जा रहा है।
यह कोई दूर के भविष्य की साइंस-फिक्शन वाली चेतावनी नहीं है। यह अमेरिका, यूरोप और एशिया की बड़ी कंपनियों द्वारा बेचे जाने वाले हायरिंग और वर्कप्लेस सॉफ्टवेयर में पहले से ही मौजूद है। रिसर्च और सरकारी रिपोर्टें सालों से इसी दिशा में इशारा कर रही हैं। सोसाइटी फॉर ह्यूमन रिसोर्स मैनेजमेंट के 2022 के एक सर्वे में पाया गया कि कई कंपनियाँ भर्ती और हायरिंग में ऑटोमेशन का इस्तेमाल पहले से ही कर रही थीं। OECD ने चेतावनी दी है कि एल्गोरिदम पर आधारित मैनेजमेंट कई सेक्टरों में फैल रहा है, खासकर लॉजिस्टिक्स, प्लेटफॉर्म वर्क, रिटेल और कस्टमर सर्विस में। वेयरहाउस में, ड्राइवरों के रूट और रफ़्तार सॉफ्टवेयर तय कर सकता है। राइड-हेलिंग और डिलीवरी के काम में, ऐप्स काम सौंपते हैं, परफॉर्मेंस को ट्रैक करते हैं, और बिना किसी मानवीय सफ़ाई के कर्मचारियों को अनुशासित भी कर सकते हैं। हो सकता है कि यह सिस्टम सूट न पहनता हो, लेकिन कर्मचारियों को इसकी ताक़त महसूस होती है।
जब बात नौकरी देने की आती है तो इस समस्या को समझना सबसे आसान हो जाता है। कंपनियों को AI स्क्रीनिंग बहुत पसंद है क्योंकि उनके पास आवेदनों का अंबार लगा होता है। इसका प्रचार लुभावना है: सॉफ्टवेयर को ढेर छाँटने दें, समय बचाएँ, लागत घटाएँ और इंसानी भेदभाव कम करें। लेकिन यह दावा हमेशा से ही बहुत बढ़ा-चढ़ाकर किया गया है। रिसर्च करने वालों ने बार-बार दिखाया है कि हायरिंग एल्गोरिदम उन डेटा में मौजूद भेदभाव को ही दर्शा सकते हैं जिन पर उन्हें ट्रेन किया गया है। Amazon ने अपने एक भर्ती टूल को इसलिए बंद कर दिया था क्योंकि यह पाया गया कि वह कुछ मामलों में महिलाओं के साथ भेदभाव कर रहा था। ऐसा इसलिए हुआ क्योंकि उसने उन रिज्यूमे से पैटर्न सीखे थे जो एक दशक तक पुरुषों ने ही ज़्यादातर जमा किए थे। यह मामला इसलिए अहम था क्योंकि इसने इन सभी सिस्टम की मुख्य समस्या को उजागर कर दिया। वे किसी शून्य में योग्यता की खोज नहीं करते। वे इतिहास से सीखते हैं, और इतिहास अक्सर अन्यायपूर्ण होता है।
चेहरे और आवाज़ का विश्लेषण करने वाले टूल्स ने इस समस्या को और भी बदतर बना दिया। कुछ कंपनियों ने दावा किया कि वे वीडियो इंटरव्यू से उत्साह, ईमानदारी या किसी भूमिका के लिए फिटनेस जैसे गुणों का पता लगा सकती हैं। इसमें से ज़्यादातर दावे खोखली ज़मीन पर बने थे। शोधकर्ताओं और डिजिटल अधिकार समूहों ने इन दावों के वैज्ञानिक आधार को चुनौती दी, और रेगुलेटर्स ने इस पर ध्यान देना शुरू कर दिया। इलिनॉय में, आर्टिफिशियल इंटेलिजेंस वीडियो इंटरव्यू एक्ट ने रिकॉर्डेड इंटरव्यू में AI के इस्तेमाल को लेकर कुछ पारदर्शिता लाने के लिए मजबूर किया। अमेरिकी समान रोजगार अवसर आयोग (EEOC) ने भी चेतावनी दी है कि हायरिंग में इस्तेमाल होने वाले सॉफ्टवेयर नागरिक अधिकार कानूनों का उल्लंघन कर सकते हैं, अगर वे बिना किसी उचित कारण के विकलांग लोगों या अन्य संरक्षित समूहों को बाहर कर देते हैं। कड़वा सच यह है कि बहुत सारे वर्कप्लेस AI को निष्पक्ष साबित करने से पहले ही उसे कुशलता के नाम पर बाज़ार में उतार दिया गया।
निगरानी वाला पहलू शायद और भी ज़्यादा परेशान करने वाला है। महामारी के दौरान और उसके बाद, डिजिटल मॉनिटरिंग में ज़बरदस्त उछाल आया। कंपनियों को कीस्ट्रोक्स लॉग करने, स्क्रीनशॉट लेने, डेस्क पर बिताए गए समय को ट्रैक करने और प्रोडक्टिविटी को स्कोर देने के लिए नए टूल मिल गए। AI ने इस मशीनरी को और बड़े पैमाने पर लागू करना आसान बना दिया। अब कोई मैनेजर कभी-कभार जाँच करने के बजाय, सिस्टम लगातार कर्मचारियों को टारगेट के मुकाबले रैंक कर सकते हैं। कॉल सेंटरों में, स्पीच एनालिटिक्स रफ़्तार, रुकावटों, चुप्पी और स्क्रिप्ट के पालन का आकलन कर सकता है। फुलफिलमेंट सेंटरों में, टास्क स्कैनर और परफॉर्मेंस डैशबोर्ड हर मिनट आउटपुट बढ़ाने का दबाव बना सकते हैं। कंपनियाँ तर्क देती हैं कि यह बस आधुनिक कामकाज का तरीक़ा है। आलोचक इसे वही कहते हैं जो यह अक्सर महसूस होता है: ऑफिस और सर्विस के काम में लाई गई औद्योगिक निगरानी।
सबूत बताते हैं कि इसकी मानवीय क़ीमत असली है। अंतर्राष्ट्रीय श्रम संगठन (ILO) और अन्य श्रम-केंद्रित निकायों ने एल्गोरिदम मैनेजमेंट को तनाव, स्वायत्तता में कमी और अपारदर्शी अनुशासन का स्रोत बताया है। कर्मचारियों को अक्सर यह पता नहीं होता कि उन्हें कैसे स्कोर किया जा रहा है या ख़राब रेटिंग को कैसे चुनौती दी जाए। यह मायने रखता है क्योंकि इसके परिणाम सिर्फ़ कागज़ी नहीं होते। कम स्कोर का मतलब कम शिफ़्ट, कम वेतन, प्रमोशन से इनकार या नौकरी से निकाला जाना हो सकता है। और जब फ़ैसला एक मालिकाना सिस्टम के अंदर छिपा होता है, तो जवाबदेही बहुत तेज़ी से फिसल जाती है। मैनेजर सॉफ्टवेयर पर दोष मढ़ देता है। सॉफ्टवेयर बनाने वाली कंपनी ग्राहक को दोषी ठहराती है। और कर्मचारी एक ऐसी मशीन से बहस करता रह जाता है जिसकी वह जांच भी नहीं कर सकता।
इसके ख़िलाफ़ एक लोकप्रिय तर्क भी है, और वह हल्का नहीं है। इंसान मैनेजर भी पक्षपाती होते हैं। वे पसंदीदा लोगों का साथ देते हैं, चीज़ों को नज़रअंदाज़ करते हैं, लोगों के बारे में धारणा बनाते हैं और भावनात्मक फ़ैसले लेते हैं। यह सच है। जो कोई भी यह दिखावा करता है कि पुराने ज़माने का मैनेजमेंट निष्पक्ष और तर्कसंगत था, वह बस पुरानी यादें बेच रहा है। लेकिन यही वजह है कि लापरवाही से बनाया गया AI इतना ख़तरनाक है। यह एक ही ग़लत फ़ैसले को एक साथ हज़ारों लोगों पर लागू कर सकता है, और वह भी वैज्ञानिक निष्पक्षता के झूठे दिखावे के साथ। इंसानी भेदभाव बुरा है। लेकिन ऑटोमेटेड भेदभाव और भी बुरा है, क्योंकि यह 'डेटा पर आधारित' होने के ठप्पे के साथ आता है।
वर्कप्लेस ऑटोमेशन के कुछ रूपों के लिए प्रोडक्टिविटी का एक वास्तविक मामला भी है। शेड्यूलिंग सॉफ्टवेयर अफ़रा-तफ़री को कम कर सकता है। धोखाधड़ी का पता लगाने वाले सिस्टम कंपनियों और ग्राहकों की रक्षा कर सकते हैं। मीटिंग का सारांश बनाने या दोहराए जाने वाले कागज़ी काम को ऑटोमेट करने वाले टूल कर्मचारियों को बेहतर कामों के लिए समय दे सकते हैं। मैनेजमेंट में AI का हर इस्तेमाल अपमानजनक या तर्कहीन नहीं होता। गंभीर सवाल यह नहीं है कि AI का काम पर इस्तेमाल होना चाहिए या नहीं। यह पहले से ही हो रहा है। असली लड़ाई इस बात पर है कि इसे कहाँ शक्ति दी जानी चाहिए, कहाँ इसे सीमित किया जाना चाहिए, और कौन इसका ऑडिट करेगा।
नियामक आख़िरकार हरकत में आ रहे हैं, हालाँकि उतनी तेज़ी से नहीं। न्यूयॉर्क शहर का ऑटोमेटेड रोज़गार निर्णय टूल पर बना क़ानून कुछ हायरिंग तकनीकों के लिए भेदभाव ऑडिट को ज़रूरी बनाता है। यूरोपीय संघ का AI एक्ट रोज़गार से संबंधित कुछ AI सिस्टम को 'हाई-रिस्क' के रूप में वर्गीकृत करता है, जिसका मतलब है कि जोखिम प्रबंधन, दस्तावेज़ीकरण और निगरानी को लेकर सख़्त नियम होंगे। अमेरिका में, संघीय व्यापार आयोग (FTC), EEOC और न्याय विभाग सभी ने AI के अनुचित या भ्रामक उपयोगों के बारे में चिंता जताई है। लेकिन इसे लागू करना अभी भी एक समान नहीं है, और बाज़ार बहुत तेज़ी से आगे बढ़ रहा है। कंपनियाँ पहले टूल ख़रीद रही हैं और क़ानूनी सवाल बाद में पूछ रही हैं।
यह लापरवाही है। अगर कोई एल्गोरिदम किसी की रोजी-रोटी तय कर सकता है, तो उसकी जांच किसी मार्केटिंग ऐप या चैटबॉट से कहीं ज़्यादा सख़्त होनी चाहिए। कंपनियों के लिए यह बताना अनिवार्य होना चाहिए कि हायरिंग, मूल्यांकन, शेड्यूलिंग या अनुशासन में AI का उपयोग कब किया जा रहा है। उन्हें सरल भाषा में यह समझाना होगा कि कौन सा डेटा अंदर जाता है और क्या परिणाम बाहर आते हैं। स्वतंत्र ऑडिट मानक होने चाहिए, न कि पीआर के लिए किया जाने वाला दिखावा। कर्मचारियों के पास फ़ैसलों के ख़िलाफ़ एक असली अधिकार वाले इंसान से अपील करने का एक स्पष्ट रास्ता होना चाहिए। और नियामकों को यह दिखावा करना बंद कर देना चाहिए कि स्वैच्छिक सिद्धांत काफ़ी हैं। वे नहीं हैं।
गहरा मुद्दा तकनीकी होने के साथ-साथ सांस्कृतिक भी है। बहुत से अधिकारी AI शब्द सुनते हैं और इसे आधुनिकता, दक्षता और तटस्थ बुद्धिमत्ता मान लेते हैं। यह आलसी सोच है। एक ख़राब डिज़ाइन वाला मैनेजमेंट सिस्टम मशीन लर्निंग का उपयोग करने से बुद्धिमान नहीं हो जाता। यह बस ग़लत फ़ैसले लेने में तेज़ हो जाता है। भविष्य का वर्कप्लेस एक ऐसे मूक सौदे पर नहीं बनाया जाना चाहिए जहाँ कर्मचारी सुविधा वाले सॉफ्टवेयर के बदले में अपनी गरिमा और उचित प्रक्रिया को छोड़ दें।
AI लोगों को बेहतर काम करने में मदद कर सकता है। यह काम को एक ज़्यादा ठंडे, कम जवाबदेह और ज़्यादा सज़ा देने वाले सिस्टम में भी बदल सकता है। दोनों भविष्य संभव हैं, और इसके विपरीत दिखावा करना एक बहाना है। असली परीक्षा सरल है: अगर कोई कंपनी कर्मचारियों को आंकने के लिए AI पर भरोसा करती है, तो जनता को भी उस कंपनी द्वारा AI के उपयोग को आंकने का पूरा अधिकार है। यह जांच टेक्नोलॉजी-विरोधी नहीं है। यह एक ऐसे श्रम बाज़ार के लिए न्यूनतम आवश्यकता है जो अभी भी इंसानों को आंकड़ों से ज़्यादा महत्व देने का दावा करता है।
Source: Editorial Desk