चरमपंथी भाषण पर AI की जंग ख़तरनाक होती जा रही है

16 अप्रैल 2026

चरमपंथी भाषण पर AI की जंग ख़तरनाक होती जा रही है

AI कंपनियां चरमपंथी कंटेंट को पहचानने की होड़ में हैं, लेकिन उनके सिस्टम धर्म, भाषा और राजनीति को समझने में गलती कर रहे हैं। इसका नतीजा है सुरक्षा में बड़ी चूक, झूठे आरोप और सेंसरशिप की एक ऐसी लड़ाई जो और बदतर होती जा रही है।

AI से जुड़ा अगला बड़ा स्कैंडल शायद किसी बिगड़ैल चैटबॉट या वोटरों को धोखा देने वाले किसी डीपफेक वीडियो से नहीं आएगा। यह शायद किसी ज़्यादा विस्फोटक चीज़ से आएगा: जब मशीनें यह तय करेंगी कि चरमपंथी भाषण क्या है, कौन संदिग्ध दिखता है, और किन समुदायों पर सबसे पहले फ़्लैग लगाया जाना चाहिए। यह लड़ाई पहले ही शुरू हो चुकी है, और यह हर हफ़्ते और उलझती जा रही है।

पूरी टेक इंडस्ट्री में, कंपनियां ऐसे AI सिस्टम बेच रही हैं जो मशीन की रफ़्तार से आतंकवादी प्रचार, हिंसक धमकियों और कट्टरपंथ के पैटर्न का पता लगाने का वादा करते हैं। सरकारें उन्हें चाहती हैं। प्लेटफ़ॉर्म्स को उनकी ज़रूरत है। निवेशक इस बारे में सुनते हैं और इसे सोने की खान समझते हैं। बेचने का तरीका हमेशा एक जैसा होता है। मशीन इंसानों से ज़्यादा तेज़ है। मशीन उन पैटर्न को देख सकती है जो इंसान नहीं देख पाते। मशीन ख़तरे को फैलने से पहले रोक सकती है। यह सब सुनने में साफ़, आधुनिक और ज़रूरी लगता है।

लेकिन जैसे ही ये सिस्टम असल दुनिया में आते हैं, कहानी बदसूरत हो जाती है। भाषा कोई गणित नहीं है। धर्म कोई अपराध स्थल नहीं है। राजनीतिक गुस्सा और हिंसक इरादा एक ही चीज़ नहीं हैं। फिर भी, AI मॉडरेशन टूल लगातार इन दायरों को तोड़ रहे हैं, खासकर जब अरबी, उर्दू और अन्य ज़्यादा जांच-पड़ताल वाली भाषाएं सामने आती हैं। शोधकर्ता सालों से इस बारे में चेतावनी दे रहे हैं। ह्यूमन राइट्स वॉच, एक्सेस नाउ और कई अकादमिक टीमों ने संघर्ष, इस्लाम और राजनीतिक भाषण से जुड़ी ऑटोमेटेड मॉडरेशन में बार-बार होने वाली गलतियों का दस्तावेजीकरण किया है। सरल शब्दों में, मशीनें उन जगहों पर गंभीर फ़ैसले ले रही हैं जहां संदर्भ ही सब कुछ है और सटीकता अक्सर कमज़ोर होती है।

यह सबूत केवल सैद्धांतिक नहीं है। 2021 में, मेटा के अपने ओवरसाइट बोर्ड ने कहा था कि कंपनी ने मध्य पूर्व में हो रहे दुर्व्यवहार से जुड़े कंटेंट को ग़लत तरीके से हटा दिया था। ऐसा इसलिए हुआ क्योंकि उसके सिस्टम अरबी भाषा की सामग्री के ख़िलाफ़ ज़रूरत से ज़्यादा सख़्ती बरत रहे थे। संघर्ष के समय में, यह पैटर्न बहुत आम हो गया है। पोस्ट हटा दिए जाते हैं। अकाउंट फ़्रीज़ कर दिए जाते हैं। पत्रकार, कार्यकर्ता और आम यूज़र बस चिल्लाते रह जाते हैं, जबकि प्लेटफ़ॉर्म्स यह दावा करते हैं कि वे जनता की सुरक्षा कर रहे हैं। कभी-कभी वे प्रचार को रोक रहे होते हैं। कभी-कभी वे बस संदर्भ को पूरी तरह से नज़रअंदाज़ कर रहे होते हैं।

नए AI सुरक्षा बाज़ार में यही केंद्रीय ख़तरा है। इसे आतंकवाद के ख़िलाफ़ एक ढाल के रूप में बेचा जा रहा है, लेकिन व्यवहार में यह अक्सर एक भोथरे हथियार की तरह काम करता है। एक वाक्यांश, एक तस्वीर, एक उपदेश का क्लिप, एक ऐतिहासिक चर्चा, एक हमले के बाद दुख से भरी पोस्ट, और एक सिस्टम इन सभी को एक ही तरह के ख़तरे के रूप में देख सकता है। मशीन शोक को नहीं समझती। वह व्यंग्य को नहीं समझती। उसे यह नहीं पता कि कोई यूज़र हिंसा की प्रशंसा कर रहा है, उसकी निंदा कर रहा है, या उसका दस्तावेजीकरण कर रहा है। यह पैटर्न के आधार पर भविष्यवाणी करता है। और सालों के पक्षपातपूर्ण डेटा पर बने पैटर्न अपने-आप में शक पैदा करने का ज़रिया बन सकते हैं।

यह कोई वहम नहीं है। मशीन लर्निंग ऐसे ही काम करती है। मॉडल पिछले लेबल्स से सीखते हैं, और पिछले लेबल्स इंसानी फ़ैसलों, संस्थागत प्राथमिकताओं और राजनीतिक दबाव को दर्शाते हैं। अगर प्रवर्तन टीमों ने ऐतिहासिक रूप से कुछ क्षेत्रों, भाषाओं या धार्मिक चिह्नों पर ज़्यादा ध्यान केंद्रित किया है, तो उस इतिहास पर प्रशिक्षित मॉडल उन पैटर्न को अपना लेगा। स्टैनफ़ोर्ड और NYU जैसे संस्थानों के शोधकर्ताओं ने बार-बार दिखाया है कि कंटेंट मॉडरेशन सिस्टम अलग-अलग भाषाओं और सांस्कृतिक सेटिंग्स में असमान रूप से काम कर सकते हैं। अंग्रेज़ी को सबसे अच्छा ट्रेनिंग डेटा, सबसे ज़्यादा पॉलिसी ट्यूनिंग और सबसे ज़्यादा सार्वजनिक जांच मिलती है। बाक़ी सभी को अक्सर बचा-खुचा मिलता है।

अब इसमें आतंकवाद-रोधी बाज़ार को भी जोड़ दीजिए, जहां डर से ख़रीदारी होती है और बारीकियों पर कोई ध्यान नहीं दिया जाता। यह वह जगह है जहां विक्रेता मानव विश्लेषकों के देखने से पहले कट्टरपंथ के रास्ते, नेटवर्क लिंक और उच्च-जोखिम वाले नैरेटिव की पहचान करने का वादा करते हैं। हर बड़े हमले के बाद यह वादा बहुत आकर्षक लगता है। कोई भी मंत्री या मेयर वह अधिकारी नहीं बनना चाहता जिसने रोकथाम के नाम पर बेचे जा रहे टूल को मना कर दिया हो। लेकिन इस क्षेत्र में भविष्य बताने वाले दावों पर गहरा संदेह करना ज़रूरी है। सुरक्षा तकनीक का इतिहास ऐसे उत्पादों से भरा पड़ा है जिन्होंने वादे तो बड़े किए लेकिन नतीजे नहीं दिए, खासकर जब विक्रेताओं ने सामान्य डेटा सॉर्टिंग को इंटेलिजेंस की बड़ी कामयाबी बताकर बेचा।

यहां तक कि AI सुरक्षा के कुछ सबसे बड़े समर्थक भी जानते हैं कि यह मामला तेज़ी से बिगड़ सकता है। समस्या यह नहीं है कि ऑनलाइन हिंसक चरमपंथी कंटेंट मौजूद है या नहीं। यह है, और प्लेटफ़ॉर्म्स ने इसे नियंत्रित करने की कोशिश में सालों बिताए हैं। समस्या उस छलांग में है जो स्पष्ट प्रचार की पहचान करने से लेकर ऐसे सिस्टम बनाने तक जाती है जो भाषण, जुड़ाव या धार्मिक शब्दावली के टुकड़ों से ख़तरनाक विचारधारा का अनुमान लगाते हैं। यहीं पर क़ानूनी पुलिसिंग और डिजिटल प्रोफ़ाइलिंग के बीच की रेखा धुंधली हो सकती है।

यूरोप एक प्रमुख युद्धक्षेत्र बनता जा रहा है। यूरोपीय संघ के डिजिटल सर्विसेज़ एक्ट के तहत, बड़े प्लेटफ़ॉर्म्स पर अवैध और हानिकारक सामग्री, जिसमें आतंकवादी कंटेंट भी शामिल है, के ख़िलाफ़ ज़्यादा आक्रामक कार्रवाई करने का दबाव है। साथ ही, अधिकार समूह चेतावनी दे रहे हैं कि आक्रामक ऑटोमेशन क़ानूनी भाषण को मिटा सकता है और अपीलों को नौकरशाही के नीचे दबा सकता है। ब्रिटेन में, जहां चरमपंथ-रोधी नीति लंबे समय से राजनीतिक रूप से संवेदनशील रही है, नागरिक स्वतंत्रता समूहों ने कट्टरपंथ के संकेतों को पहचानने के लिए बनाए गए कार्यक्रमों में अतिरेक को सालों तक चुनौती दी है। अब AI कम पारदर्शिता और बड़े पैमाने पर उन्हीं प्रवृत्तियों को और तेज़ करने का ख़तरा पैदा कर रहा है।

और फिर ओपन इंटरनेट की समस्या भी है। जेनरेटिव AI ने कई भाषाओं में प्रचार सामग्री बनाना, प्रतीकों की नकल करना, भाषणों को रीमिक्स करना और कम लागत पर नेटवर्क को प्रेरक सामग्री से भर देना आसान बना दिया है। यूरोपोल ने 2023 में चेतावनी दी थी कि जेनरेटिव AI भर्ती और प्रचार को ज़्यादा आसान बनाकर आपराधिक और चरमपंथी अभियानों में मदद कर सकता है। यह चेतावनी मायने रखती है। ख़तरा असली है। लेकिन यही वजह है कि घबराहट इतनी ख़तरनाक है। एक असली ख़तरे का इस्तेमाल घटिया उपकरणों, व्यापक निगरानी और सरकारों तथा टेक फ़र्मों के बीच गुप्त साझेदारियों को सही ठहराने के लिए किया जा सकता है, जो बहुत कम सार्वजनिक जवाबदेही के साथ काम करते हैं।

यहीं से साज़िश की बातें शुरू हो जाती हैं, और यह इसलिए पनपती हैं क्योंकि संस्थाएं इसे बढ़ावा देती रहती हैं। जब सरकारें यह समझाने से इनकार करती हैं कि सिस्टम यूज़र्स को कैसे फ़्लैग करते हैं, जब प्लेटफ़ॉर्म्स अस्पष्ट सुरक्षा भाषा के पीछे छिप जाते हैं, और जब निर्दोष लोग बिना किसी स्पष्ट उपाय के अपने अकाउंट खो देते हैं या जांच का सामना करते हैं, तो इस खालीपन को अफ़वाहें भर देती हैं। लोग यह मानने लगते हैं कि उन पर उन शब्दों के लिए नज़र रखी जा रही है जिनसे वे प्रार्थना करते हैं, जिस इतिहास पर वे चर्चा करते हैं, या जिस राजनीति की वे आलोचना करते हैं। कभी-कभी ये डर बढ़ा-चढ़ाकर पेश किए जाते हैं। कभी-कभी वे नहीं होते। बात सीधी है: अपारदर्शिता शक पैदा करती है, और AI अपारदर्शी शक्ति को चुनौती देना और भी मुश्किल बना देता है।

इंडस्ट्री का पसंदीदा बचाव यह है कि प्रक्रिया में मानव समीक्षा शामिल है। यह सुनने में तो सुकून देने वाला लगता है, लेकिन जब आप इसका पैमाना देखते हैं तो सच्चाई कुछ और होती है। बड़े प्लेटफ़ॉर्म्स पर अरबों पोस्ट आते-जाते हैं। ऑटोमेटेड फ़िल्टर पहली कटौती करते हैं। सिस्टम जोखिम का क्रम तय करते हैं। समीक्षक दबाव में काम करते हैं, अक्सर सीमित स्थानीय ज्ञान और कम समय के साथ। एक बार जब कोई AI सिस्टम किसी चीज़ को ख़तरनाक के रूप में टैग कर देता है, तो वह लेबल बाद के हर फ़ैसले को प्रभावित कर सकता है। इन प्रक्रियाओं में मानव निरीक्षण अक्सर सुरक्षा उपाय से ज़्यादा, दबाव में लगाई गई एक रबर स्टैम्प की तरह होता है।

इसका मतलब यह नहीं है कि टेक कंपनियों को ऑनलाइन असली चरमपंथी हिंसा को रोकने के प्रयास छोड़ देने चाहिए। यह बेतुका होगा। इस्लामिक स्टेट के प्रचार, हमले के मैनुअल और संगठित भर्ती अभियानों ने अतीत में डिजिटल प्लेटफ़ॉर्म्स का प्रभावी ढंग से इस्तेमाल किया है। यूरोप, एशिया और मध्य पूर्व में क़ानून प्रवर्तन एजेंसियों ने दस्तावेज़ तैयार किए हैं कि कैसे एन्क्रिप्टेड नेटवर्क और ऑनलाइन मीडिया इकोसिस्टम हिंसक समूहों की मदद कर सकते हैं। ख़तरा मनगढ़ंत नहीं है। समस्या यह है कि कंपनियां और सरकारें ऐसे काम कर रही हैं जैसे कि तेज़ पहचान का मतलब अपने-आप में बेहतर पहचान है। ऐसा नहीं है।

समझदारी का रास्ता ज़्यादा कठिन और कम आकर्षक है। इसका मतलब है कि दावे सीमित हों। भाषा की बेहतर विशेषज्ञता हो। स्वतंत्र ऑडिट हों। ग़लतियों की सार्वजनिक रिपोर्टिंग हो। स्पष्ट अपील प्रणाली हो। केवल धर्म के आधार पर हिंसक इरादे का अनुमान लगाने के ख़िलाफ़ सख़्त नियम हों। इसका मतलब यह स्वीकार करना है कि कोई मॉडल केवल इसलिए राजनीतिक, धार्मिक और सांस्कृतिक अस्पष्टता को बड़े पैमाने पर हल नहीं कर सकता क्योंकि एक वेंडर का डैशबोर्ड लाल चमक रहा है।

AI इंडस्ट्री 'अलाइनमेंट' (यानी AI का इंसानी मूल्यों के अनुरूप होना) की बात करना पसंद करती है। यहाँ एक असली परीक्षा है। अगर ये सिस्टम आस्था और कट्टरता, रिपोर्टिंग और प्रचार, या असहमति और ख़तरे के बीच अंतर नहीं कर सकते, तो वे हमें सुरक्षित नहीं बना रहे हैं। वे आधुनिक राजनीति की सबसे पुरानी विफलताओं में से एक को ऑटोमेट कर रहे हैं: पूरे समुदायों को एक समस्या मानकर उसे नियंत्रित करना। और जब एक बार यह तर्क कोड में डाल दिया जाता है, तो यह तेज़ी से काम करता है, आसानी से छिप जाता है और इसे बदलना बहुत मुश्किल होता है।

Source: Editorial Desk

Publication

The World Dispatch

Source: Editorial Desk

Category: AI