अदृश्य सेंसरशिप: इंटरनेट के एल्गोरिदम LGBT समुदाय की आवाज़ कैसे दबा रहे हैं?
30 मार्च 2026

ज़्यादातर लोग मानते हैं कि इंटरनेट एक निष्पक्ष सार्वजनिक मंच की तरह काम करता है। हम यह मानने लगते हैं कि जो कुछ हम ऑनलाइन देखते हैं, वह बस लोकप्रिय चीज़ों का प्रतिबिंब है, और जो गायब हो जाता है, उसे भीड़ ने नज़रअंदाज़ कर दिया। लेकिन हमारी रोज़मर्रा की डिजिटल ज़िंदगी की सतह के नीचे, स्वचालित सिस्टम चुपचाप बड़े संपादकीय फ़ैसले ले रहे हैं। सॉफ़्टवेयर एल्गोरिदम, जिन्हें प्लेटफ़ॉर्म को सुरक्षित और विज्ञापनदाताओं के लिए अनुकूल बनाए रखने के लिए डिज़ाइन किया गया है, वे अदृश्य बाउंसर्स की तरह काम कर रहे हैं। और LGBT समुदाय के लिए, ये डिजिटल गेटकीपर अक्सर उनके अस्तित्व को ही नियमों का उल्लंघन मानते हैं।
आम धारणा यह है कि कंटेंट मॉडरेशन सिर्फ़ जानबूझकर की जाने वाली नफ़रती बातों या अवैध गतिविधियों जैसे वाक़ई हानिकारक व्यवहार को निशाना बनाता है। हक़ीक़त में, आधुनिक वेब का डिजिटल ढाँचा मोटे तौर पर कीवर्ड फ़िल्टर और पैटर्न पहचानने वाले सॉफ़्टवेयर पर बहुत ज़्यादा निर्भर करता है। पिछले कुछ सालों में, डिजिटल प्लेटफ़ॉर्म का विश्लेषण करने वाले शोधकर्ताओं ने एक चिंताजनक पैटर्न पाया है। स्वचालित मॉडरेशन सिस्टम नियमित रूप से LGBT पहचान से जुड़े हानिरहित शब्दों को फ़्लैग करते हैं, और उन्हें स्वाभाविक रूप से वयस्क, विवादास्पद या आपत्तिजनक मानते हैं।
सेंटर फ़ॉर डेमोक्रेसी एंड टेक्नोलॉजी जैसे संगठनों के शोध ने इस डिजिटल टकराव को उजागर किया है। प्राकृतिक भाषा प्रसंस्करण मॉडल का परीक्षण करने वाले अध्ययनों से पता चला है कि आर्टिफ़िशियल इंटेलिजेंस टूल उन वाक्यों को लगातार ज़्यादा आपत्तिजनक (टॉक्सिक) स्कोर देते हैं, जिनमें सिर्फ़ 'गे', 'लेस्बियन' या 'ट्रांसजेंडर' जैसे शब्द होते हैं। प्रमुख विज्ञापन नेटवर्कों में एक अच्छी तरह से दर्ज पैटर्न में, इन बुनियादी पहचान वाले शब्दों को ब्रांड सेफ़्टी ब्लॉकलिस्ट में ठीक गाली-गलौज और हिंसक भाषा के साथ समूहीकृत किया गया था। विज्ञापनदाता इन सॉफ़्टवेयर टूल का उपयोग विवादास्पद कंटेंट के बगल में विज्ञापन देने से बचने के लिए करते हैं। इसके परिणामस्वरूप, LGBT जीवन के बारे में पूरी तरह से सामान्य लेखों या वीडियो को स्वचालित रूप से विज्ञापन राजस्व से वंचित कर दिया जाता है।
यह कुछ गड़बड़ वेबसाइटों का मामला नहीं है। यह एक व्यवस्थागत समस्या है जो वैश्विक इंटरनेट को शक्ति देने वाली एंटरप्राइज़ टेक्नोलॉजी में अंतर्निहित है। सोशल मीडिया प्लेटफ़ॉर्म एक दिन में अरबों पोस्ट को स्कैन करने के लिए स्वचालित मॉडरेशन पर निर्भर करते हैं। जब कोई युवा सामुदायिक संसाधनों की तलाश करता है, या कोई स्वतंत्र समाचार आउटलेट नागरिक अधिकारों के बारे में कोई कहानी प्रकाशित करता है, तो अंतर्निहित सॉफ़्टवेयर अक्सर उस कंटेंट की पहुँच को सीमित कर देता है। क्रिएटरों के अधिकारों की वकालत करने वाले समूहों के डेटा बार-बार दिखाते हैं कि क्वीयर कंटेंट बनाने वालों को सिर्फ़ अपने समुदाय की शब्दावली को टाइटल या टैग में इस्तेमाल करने के लिए दर्शकों की पहुँच में अचानक गिरावट का अनुभव होता है, इस घटना को आमतौर पर 'शैडोबैनिंग' के रूप में जाना जाता है।
यह समझने के लिए कि ऐसा क्यों होता है, आपको यह देखना होगा कि आधुनिक सॉफ़्टवेयर इकोसिस्टम कैसे बनाए जाते हैं। मशीन लर्निंग मॉडल इंसानी संदर्भ को नहीं समझते हैं। उन्हें खुले इंटरनेट से लिए गए विशाल डेटासेट पर प्रशिक्षित किया जाता है। चूँकि LGBT शब्द अक्सर ऑनलाइन उत्पीड़न, बदमाशी और गरमागरम राजनीतिक बहस का निशाना बनते हैं, इसलिए एल्गोरिदम इन शब्दों को संघर्ष से जोड़ना सीख जाते हैं। आर्टिफ़िशियल इंटेलिजेंस गणितीय रूप से पहचान को आपत्तिजनक बातों (टॉक्सिसिटी) से जोड़ देता है। जब कोई सॉफ़्टवेयर इंजीनियर शत्रुतापूर्ण कंटेंट को फ़िल्टर करने के लिए एक पैरामीटर सेट करता है, तो मशीन कर्तव्यनिष्ठा से हमलावरों के साथ-साथ उत्पीड़न के शिकार लोगों को भी दबा देती है।
इसके अलावा, एंटरप्राइज़ टेक्नोलॉजी उद्योग लगातार बारीकियों पर पैमाने को प्राथमिकता देता है। किसी क्लाउड प्लेटफ़ॉर्म या वैश्विक सोशल नेटवर्क के लिए संदर्भ को समझने के लिए पर्याप्त मानव मॉडरेटरों को नियुक्त करने की तुलना में व्यापक कीवर्ड ब्लॉकलिस्ट का उपयोग करना सस्ता और तेज़ है। एक मशीन आसानी से हथियार के रूप में इस्तेमाल किए गए अपमानजनक शब्द और अपनी पहचान को पुनः प्राप्त करने वाले हाशिए के व्यक्ति के बीच अंतर नहीं बता सकती है। इसलिए, डिजिटल ढाँचा एक सख़्त, जोखिम से बचने वाली दमनकारी नीति अपनाता है। सॉफ़्टवेयर प्रभावी रूप से यह तय करता है कि LGBT विषयों को संभालने का सबसे सुरक्षित तरीक़ा बस उन्हें छिपा देना है।
इस एल्गोरिदम द्वारा मिटाए जाने के परिणाम गंभीर हैं। डिजिटल मीडिया प्रकाशकों के लिए, ब्रांड सेफ़्टी सॉफ़्टवेयर द्वारा फ़्लैग किए जाने का मतलब है कि वे अपना काम जारी रखने के लिए ज़रूरी विज्ञापन डॉलर खो देते हैं। कई स्वतंत्र LGBT समाचार आउटलेट सिर्फ़ इसलिए वित्तीय बर्बादी का सामना कर चुके हैं क्योंकि स्वचालित डिजिटल ढाँचे ने उनकी रिपोर्टिंग को कॉर्पोरेट प्रायोजकों के लिए बहुत जोखिम भरा माना। यह सॉफ़्टवेयर कभी भी औपचारिक प्रतिबंध जारी किए बिना चुपचाप इन संगठनों को राजस्व से वंचित कर देता है।
इंसानी स्तर पर, इसका प्रभाव और भी ज़्यादा अलग-थलग करने वाला है। दशकों से, इंटरनेट उन लोगों के लिए एक महत्वपूर्ण जीवन रेखा के रूप में काम करता रहा है जो ऐसे घरों या क्षेत्रों में रहते हैं जहाँ उन्हें समर्थन नहीं मिलता। यह अक्सर एकमात्र ऐसी जगह होती है जहाँ व्यक्ति सुरक्षित रूप से अपनी पहचान के बारे में सवाल पूछ सकते हैं या एक सहायक समुदाय ढूँढ सकते हैं। जब सर्च इंजन और सोशल मीडिया एल्गोरिदम उपयोगकर्ता की सुरक्षा की आड़ में इन वार्ताओं को दबा देते हैं, तो वे उस डिजिटल जीवन रेखा को काट देते हैं। समर्थन की तलाश करने वाले एक किशोर को इसके बजाय ख़ाली पेज, प्रतिबंधित कंटेंट की चेतावनियाँ, या सिर्फ़ बहुत ज़्यादा साफ़-सुथरे कॉर्पोरेट पोस्ट मिल सकते हैं, क्योंकि अंतर्निहित सॉफ़्टवेयर इकोसिस्टम उनके खोज शब्दों को अनुचित मानता है।
इसे ठीक करने के लिए तकनीकी कंपनियों द्वारा अपने डिजिटल ढाँचे को डिज़ाइन करने के तरीक़े में एक बुनियादी बदलाव की ज़रूरत है। सॉफ़्टवेयर इंजीनियरों को लापरवाही से बनाई गई कीवर्ड ब्लॉकलिस्ट पर भरोसा करना बंद करना चाहिए और ज़्यादा परिष्कृत, संदर्भ-जागरूक आर्टिफ़िशियल इंटेलिजेंस का निर्माण करना चाहिए। प्रशिक्षण डेटा की कड़ाई से जाँच की जानी चाहिए ताकि यह सुनिश्चित हो सके कि मशीन लर्निंग मॉडल खुले इंटरनेट के पूर्वाग्रहों को आत्मसात और बढ़ा नहीं रहे हैं। प्रौद्योगिकी फ़र्मों को सक्रिय रूप से अपने स्वचालित सिस्टम को किसी समुदाय के ख़िलाफ़ नफ़रती भाषण और उस समुदाय द्वारा उपयोग की जाने वाली सामान्य, रोज़मर्रा की भाषा के बीच अंतर करने के लिए प्रशिक्षित करना चाहिए।
इसके अलावा, एंटरप्राइज़ टेक्नोलॉजी क्षेत्र को अपने मॉडरेशन लूप में मानव निरीक्षण को बहाल करने की आवश्यकता है। हालाँकि इंटरनेट ट्रैफ़िक की भारी मात्रा को संभालने के लिए स्वचालन आवश्यक है, लेकिन निष्पक्षता के लिए मानव संदर्भ ज़रूरी है। जब कंटेंट को डीमॉनेटाइज़ या दबा दिया जाता है, तो तकनीकी कंपनियों को पारदर्शी अपील प्रक्रियाएँ प्रदान करनी चाहिए, जिससे उपयोगकर्ता छिपे हुए एल्गोरिदम द्वारा किए गए स्वचालित फ़ैसलों को चुनौती दे सकें। प्लेटफ़ॉर्म को उनके सुरक्षा उपकरणों से होने वाले नुक़सान के लिए जवाबदेह ठहराया जाना चाहिए।
टेक्नोलॉजी कभी भी पूरी तरह से निष्पक्ष नहीं होती है। हम जिन सॉफ़्टवेयर इकोसिस्टम के साथ हर दिन बातचीत करते हैं, वे इंसानों द्वारा बनाए गए हैं, और वे अपने बनाने वालों की अनदेखी को दर्शाते हैं। जब हम डिजिटल ढाँचे को एक पूरी आबादी को एक सिस्टम की गड़बड़ी या ब्रांड के लिए ख़तरा मानने की अनुमति देते हैं, तो हम इंटरनेट के मूल वादे में विफल हो जाते हैं। एक सही मायने में जुड़ी हुई दुनिया के लिए ऐसे डिजिटल स्पेस की आवश्यकता होती है जो मानव पहचान के पूरे स्पेक्ट्रम को संभाल सकें। जब तक तकनीकी उद्योग अपनी मूल धारणाओं को अपडेट नहीं करता, तब तक उसके स्वचालित गेटकीपर चुपचाप, एल्गोरिदम द्वारा मिटाए जाने की प्रक्रिया को लागू करते रहेंगे।