अब AI रोकेगा बिन मांगी अश्लील तस्वीरें, नई तकनीक फोन पर ही करेगी काम

31 मार्च 2026

अब AI रोकेगा बिन मांगी अश्लील तस्वीरें, नई तकनीक फोन पर ही करेगी काम

कई लोगों को लगता है कि आधुनिक टेक कंपनियाँ किसी भी प्रतिबंधित कंटेंट को यूज़र की स्क्रीन तक पहुँचने से पहले ही तुरंत फ़िल्टर कर सकती हैं। हम आर्टिफिशियल इंटेलिजेंस पर भरोसा करते हैं कि वह सेकंडों में कॉपीराइट उल्लंघन पकड़ ले, नफ़रती भाषा को टाइप करते ही फ़्लैग कर दे, और यहाँ तक कि एक टेक्स्ट कमांड से बिल्कुल असली जैसी तस्वीरें बना दे। फिर भी, एक दशक से ज़्यादा समय से, डिजिटल उत्पीड़न का एक खास और व्यापक रूप इन बड़े एल्गोरिदम से बचता रहा है। पुरुषों के जननांगों की बिन मांगी तस्वीरें, जिन्हें अक्सर डिजिटल डेटिंग के दौर का एक भद्दा लेकिन आम मज़ाक मानकर नज़रअंदाज़ कर दिया जाता है, कंप्यूटर विज़न इंजीनियरों के लिए एक आश्चर्यजनक रूप से कठिन चुनौती बन गई हैं। ऐसा सॉफ़्टवेयर बनाने की लड़ाई जो यूज़र की निजता का उल्लंघन किए बिना इन अश्लील तस्वीरों की सटीक पहचान कर उन्हें ब्लॉक कर सके, यह हमारे आधुनिक डिजिटल ढांचे को नया आकार दे रही है।

इस समस्या का पैमाना चौंकाने वाला है, और यह सिर्फ़ व्यवहार में बदलाव के बजाय एक तकनीकी समाधान की माँग करता है। प्यू रिसर्च सेंटर (Pew Research Center) के डेटा से लगातार पता चला है कि इंटरनेट पर सक्रिय लगभग आधी युवा महिलाओं को कोई ऐसी अश्लील तस्वीर मिली है जो उन्होंने नहीं माँगी थी। डेटिंग ऐप्स, गुमनाम मैसेजिंग बोर्ड और सोशल मीडिया के डायरेक्ट मैसेज में इन तस्वीरों का अचानक दिखना डिजिटल रूप में अश्लील प्रदर्शन करने जैसा है। सालों तक, प्लेटफ़ॉर्म केवल शिकायत मिलने के बाद ही कार्रवाई करते थे। यूज़र को मैसेज खोलना पड़ता था, तस्वीर का झटका झेलना पड़ता था, और फिर एक ह्यूमन मॉडरेशन टीम को सचेत करने के लिए रिपोर्टिंग मेन्यू में जाकर खुद रिपोर्ट करना पड़ता था। इस पुरानी व्यवस्था ने पीड़ित पर ही कार्रवाई का पूरा बोझ डाल दिया था, जबकि सॉफ़्टवेयर खुद इस उत्पीड़न के लिए एक निष्क्रिय माध्यम बना हुआ था।

जब शुरुआती सॉफ़्टवेयर इस मुद्दे को संभालने में नाकाम रहे, तो इस पर क़ानून बनाने वालों का ध्यान गया। इससे यह समस्या महज़ एक यूज़र की शिकायत से बढ़कर एक व्यवस्थागत क़ानूनी ज़िम्मेदारी बन गई। यूनाइटेड किंगडम में, हाल के क़ानून ने 'साइबरफ़्लैशिंग' को आधिकारिक तौर पर अपराध बना दिया है। इसके साथ ही यह अमेरिका के कैलिफ़ॉर्निया और टेक्सास जैसे कई इलाकों में शामिल हो गया है, जहाँ बिन माँगी अंतरंग तस्वीरें भेजने पर दंड का प्रावधान है। जैसे-जैसे क़ानूनी जोखिम बढ़े, टेक कंपनियाँ अब इस मुद्दे को कम प्राथमिकता वाली मॉडरेशन की समस्या मानकर नज़रअंदाज़ नहीं कर सकती थीं। उन्हें सक्रिय इंजीनियरिंग में भारी निवेश करने के लिए मजबूर होना पड़ा, लेकिन फिर वे मौजूदा इमेज रिकग्निशन सॉफ़्टवेयर की गंभीर तकनीकी सीमाओं में फँस गईं।

इस देरी का मूल कारण सिर्फ़ कंपनियों की उदासीनता नहीं थी, बल्कि आर्टिफिशियल इंटेलिजेंस और प्राइवेसी आर्किटेक्चर में एक वास्तविक सीमा भी थी। मशीन लर्निंग मॉडल को मानव शरीर के खास अंगों को पहचानने के लिए ट्रेनिंग देना चेहरे की पहचान वाली दुनिया में आसान लग सकता है, लेकिन मानव शरीर कंप्यूटर के लिए अविश्वसनीय रूप से जटिल स्थितियाँ पेश करता है। शुरुआती इमेज रिकग्निशन एल्गोरिदम 'फॉल्स पॉजिटिव' (जब किसी सही चीज़ को गलत समझ लिया जाए) की समस्या से लगातार जूझते रहे। रोशनी में बदलाव, अलग-अलग स्किन टोन, गहरी परछाई, और उँगलियों, हॉट डॉग या अजीब आकार के फलों जैसी बिल्कुल सामान्य चीज़ें भी सॉफ़्टवेयर को धोखा देकर तस्वीरों को गलत तरीके से फ़्लैग करवा देती थीं। इंजीनियरों ने पाया कि अगर एल्गोरिदम को बहुत ज़्यादा सख्त बनाया जाता है, तो वह रोज़मर्रा की बातचीत को सेंसर कर देगा, और अगर इसे बहुत ढीला रखा जाता है, तो उत्पीड़न बिना रोक-टोक के होता रहेगा।

इसके अलावा, जैसे-जैसे टेक इंडस्ट्री यूज़र की निजता की सुरक्षा के लिए एंड-टू-एंड एन्क्रिप्शन की ओर बढ़ी, कंटेंट मॉडरेटर्स के लिए एक बहुत बड़ी नई बाधा सामने आ गई। अगर कोई प्लेटफ़ॉर्म क़ानूनी या तकनीकी रूप से अपने सर्वर पर किसी डायरेक्ट मैसेज को डिक्रिप्ट करके उसके कंटेंट को नहीं देख सकता, तो वह भेजी जा रही आपत्तिजनक तस्वीरों को स्कैन करने के लिए क्लाउड-आधारित एल्गोरिदम का इस्तेमाल नहीं कर सकता। इसने डिजिटल ढांचे के लिए एक विरोधाभास पैदा कर दिया। वही एन्क्रिप्शन मानक, जो यूज़र्स को सरकारी निगरानी और कॉर्पोरेट डेटा की चोरी से बचाने के लिए बनाए गए थे, अनजाने में बुरे लोगों को बिना पकड़े गए बिन माँगी अश्लील तस्वीरें भेजने के लिए एक पूरी तरह से सुरक्षित सुरंग मुहैया करा रहे थे।

इन तस्वीरों को फ़िल्टर करने में तकनीकी विफलता के डिजिटल सार्वजनिक जीवन के लिए गंभीर परिणाम होते हैं। ऑनलाइन व्यवहार पर हुए शोध ने बार-बार दिखाया है कि डिजिटल यौन उत्पीड़न के लगातार संपर्क में आने से इंटरनेट पर लोगों की भागीदारी हतोत्साहित होती है। यूज़र्स अपने डायरेक्ट मैसेज में ही असुरक्षित महसूस करने लगते हैं, जिससे वे अपनी प्रोफ़ाइल लॉक कर देते हैं, सार्वजनिक चर्चाओं से दूर हो जाते हैं, या कुछ एप्लिकेशन पूरी तरह से छोड़ देते हैं। इस डिजिटल लेन-देन का बोझ पूरी तरह से असंतुलित है। एक तस्वीर अपलोड करने और भेजने में एक सेकंड का कुछ हिस्सा लगता है, लेकिन इस भावनात्मक आघात से उबरने, भेजने वाले को ब्लॉक करने और एक जटिल रिपोर्टिंग इंटरफ़ेस का उपयोग करने में प्राप्तकर्ता का बहुत समय और ऊर्जा बर्बाद होती है। इंटरनेट के ढाँचे ने मूल रूप से इस उत्पीड़न को बढ़ावा दिया, क्योंकि यह भेजने वाले के लिए मुफ़्त और पाने वाले के लिए थकाऊ था।

इस जटिल पहेली को सुलझाने के लिए, इंजीनियरों को इमेज मॉडरेशन के काम करने के तरीके पर फिर से सोचना पड़ा। एक सेंट्रलाइज्ड क्लाउड में तस्वीरों को स्कैन करने के बजाय, कंपनियों ने हल्के आर्टिफिशियल इंटेलिजेंस मॉडल विकसित करने शुरू किए जो पूरी तरह से स्मार्टफ़ोन के लोकल हार्डवेयर पर चल सकें। यह कॉन्सेप्ट, जिसे 'एज कंप्यूटिंग' के नाम से जाना जाता है, विश्लेषण की शक्ति को सीधे आपके हाथ में मौजूद डिवाइस तक पहुँचाता है। डेटिंग प्लेटफ़ॉर्म ने इस लोकल डिटेक्शन के शुरुआती संस्करणों को पेश किया। उन्होंने ऐसे एल्गोरिदम तैनात किए जिन्हें खास डेटासेट पर ट्रेनिंग दी गई थी ताकि वे स्क्रीन पर पूरी तरह से दिखने से पहले ही तस्वीर में पुरुषों के जननांगों की पहचान कर सकें।

जब लोकल सॉफ़्टवेयर को अश्लील कंटेंट की ज़्यादा संभावना का पता चलता है, तो वह अपने-आप तस्वीर को धुंधला (blur) कर देता है और यूज़र को एक चेतावनी दिखाता है। इससे प्राप्तकर्ता को बिना धुंधली तस्वीर देखे ही उसे देखने, रिपोर्ट करने या हटाने का अधिकार मिलता है। Apple ने हाल ही में इसी तरह का एक वैकल्पिक सुरक्षा फ़ीचर सीधे अपने मोबाइल ऑपरेटिंग सिस्टम में जोड़ा है। चूँकि तस्वीर का विश्लेषण किसी दूर के सर्वर के बजाय पूरी तरह से डिवाइस की अपनी सिलिकॉन चिप पर होता है, इसलिए एंड-टू-एंड एन्क्रिप्शन पूरी तरह से सुरक्षित रहता है। प्लेटफ़ॉर्म वास्तव में तस्वीर को कभी नहीं देखता, लेकिन यूज़र फिर भी उत्पीड़न से सुरक्षित रहता है।

ये ऑन-डिवाइस ब्लरिंग टूल इस बात में एक बड़ा वैचारिक बदलाव दिखाते हैं कि हम डिजिटल ढाँचा कैसे बनाते हैं और व्यक्तिगत सुरक्षा को कैसे प्राथमिकता देते हैं। लंबे समय तक, टेक्नोलॉजी इंडस्ट्री ने यूज़र सुरक्षा को एक बाद की चिंता माना। यह एक ऐसा मुद्दा था जिसे कम वेतन वाले ह्यूमन मॉडरेटर्स द्वारा मनोवैज्ञानिक नुक़सान होने के बाद डिजिटल गंदगी को साफ़ करके निपटाया जाता था। आर्टिफिशियल इंटेलिजेंस को सीधे नेटवर्क के किनारे (edge) तक पहुँचाकर, डेवलपर आख़िरकार ऐसी डिजिटल सीमाएँ बना रहे हैं जिन्हें यूज़र नियंत्रित कर सकते हैं। टेक्नोलॉजी ने ही मूल रूप से वह आसान माहौल बनाया था जिसने इस खास तरह के उत्पीड़न को पनपने दिया, लेकिन अब बेहतर और निजता का सम्मान करने वाले एल्गोरिदम के साथ, यह आख़िरकार दरवाज़ा बंद करने के लिए उपकरण भी मुहैया करा रही है।

Publication

The World Dispatch

Source: Editorial Desk

Category: Technology