खामोश जंग का मैदान: कैसे स्वचालित हथियार नियमों पर सहमति से पहले ही युद्ध की परिभाषा बदल रहे हैं

28 मार्च 2026

खामोश जंग का मैदान: कैसे स्वचालित हथियार नियमों पर सहमति से पहले ही युद्ध की परिभाषा बदल रहे हैं

किलर रोबोट की तस्वीर अक्सर साइंस फिक्शन जैसी होती है—एक धातु का, इंसान जैसा दिखने वाला सैनिक जंग के मैदान में मार्च करता हुआ। लेकिन युद्ध की दुनिया में असली क्रांति बहुत खामोशी से हो रही है। यह किसी हॉलीवुड साइबोर्ग का रूप नहीं ले रही, बल्कि ड्रोन, मिसाइलों और रक्षा प्रणालियों में लगे इंटेलिजेंट सॉफ्टवेयर का रूप ले रही है। इस नए तरह के स्वचालित हथियार, जो बिना सीधे इंसानी नियंत्रण के लक्ष्य को ढूंढकर उन पर हमला करने में सक्षम हैं, अब प्रयोगशाला से निकलकर युद्ध के मोर्चे तक पहुंच रहे हैं। यह विकास दुनिया को एक ऐसी हकीकत का सामना करने पर मजबूर कर रहा है जिसके लिए कई लोग तैयार नहीं हैं: जल्द ही जंग के सबसे अहम फैसले जनरल नहीं, बल्कि एल्गोरिदम लेंगे।

यह बदलाव पहले ही शुरू हो चुका है। 2021 में, लीबिया संघर्ष पर संयुक्त राष्ट्र की एक रिपोर्ट ने सुझाव दिया था कि तुर्की में बना कारगु-2 ड्रोन, जो एक तरह का लॉइटरिंग म्यूनिशन है, उसने शायद पूरी तरह से स्वचालित मोड में पीछे हट रहे सैनिकों को ढूंढकर उन पर 'हमला' किया था। हालांकि इस घटना के विवरण पर अभी भी विवाद है, लेकिन यह एक संभावित मोड़ था, शायद यह पहली बार था जब किसी मशीन द्वारा अपनी आर्टिफिशियल इंटेलिजेंस के आधार पर किसी इंसान को मारने का दस्तावेजी सबूत मिला। अमेरिका, चीन और रूस जैसी बड़ी सैन्य ताकतें AI-संचालित युद्ध तकनीक में अरबों का निवेश कर रही हैं। उन्हें यकीन है कि स्वचालित सिस्टम की गति उन्हें एक ऐसी बढ़त दिलाएगी जिसे कोई पार नहीं कर सकता। एक AI सेंसर डेटा का विश्लेषण कर सकता है, खतरे की पहचान कर सकता है, और मिलीसेकंड में जवाबी हमला कर सकता है—यह एक ऐसा फैसला है जिसकी बराबरी कोई इंसान ऑपरेटर नहीं कर सकता।

स्वचालन की ओर इस होड़ के पीछे सैन्य ज़रूरत की एक मजबूत दलील है। हाइपरसोनिक मिसाइलों और जटिल इलेक्ट्रॉनिक युद्ध के इस युग में, देशों को डर है कि अगर उनके रक्षा सिस्टम धीमी इंसानी प्रतिक्रिया पर निर्भर रहे तो वे कमजोर पड़ जाएंगे। यह दलील अक्सर सुरक्षा को लेकर दी जाती है, जिसमें यह कहा जाता है कि स्वचालित सिस्टम इंसानी सैनिकों से ज़्यादा सटीक हो सकते हैं, जो थकान, डर और गलत फैसले जैसी कमजोरियों से जूझते हैं। समर्थकों का तर्क है कि इंसानों को सीधे मुकाबले से हटाकर हम अपनी सेना के हताहतों की संख्या कम कर सकते हैं। यह तर्क एक दमदार और शायद न पलटने वाली गति पैदा करता है। यह एक क्लासिक सुरक्षा दुविधा पैदा करता है: भले ही कोई देश इन हथियारों को विकसित करने में झिझक रहा हो, उसे ऐसा करना ही होगा क्योंकि उसे डर है कि उसके दुश्मन एक निर्णायक बढ़त हासिल कर लेंगे।

हालांकि, तकनीकी हथियारों की यह होड़ अपने साथ गंभीर खतरे भी लाती है जो सिर्फ जंग के मैदान तक सीमित नहीं हैं। सबसे बड़ा खतरा विनाशकारी और अनपेक्षित रूप से तनाव बढ़ने का है। रैंड कॉर्पोरेशन जैसे थिंक टैंक द्वारा किए गए युद्ध अभ्यासों और सिमुलेशन में बार-बार यह दिखाया गया है कि जब स्वचालित सिस्टम एक-दूसरे का सामना करते हैं, तो टकराव मशीनी गति से नियंत्रण से बाहर हो सकते हैं। एक छोटी सी सीमा झड़प को प्रतिस्पर्धी एल्गोरिदम गलत समझ सकते हैं, जिससे स्वचालित प्रतिक्रियाओं की एक श्रृंखला शुरू हो सकती है और इससे पहले कि राजनयिक फोन उठा पाएं, एक पूर्ण पैमाने का युद्ध छिड़ सकता है। इस बेहद तेज़ माहौल में, इंसानी सोच-विचार, तनाव कम करने और कूटनीति की गुंजाइश खत्म हो जाती है।

इसके अलावा, घातक स्वायत्तता एक कानूनी और नैतिक शून्य पैदा करती है। अंतर्राष्ट्रीय मानवीय कानून का पूरा ढांचा, जो युद्ध के आचरण को नियंत्रित करता है, मानवीय जिम्मेदारी की नींव पर बना है। भेदभाव का सिद्धांत (यानी सैनिक और आम नागरिक में फर्क करना) और आनुपातिकता का सिद्धांत (यानी यह सुनिश्चित करना कि हमला सैन्य लक्ष्य के मुकाबले बहुत ज़्यादा विनाशकारी न हो) जैसे सिद्धांतों के लिए जटिल, संदर्भ को समझने वाले नैतिक विवेक की जरूरत होती है। यह स्पष्ट नहीं है कि क्या कोई AI कभी वास्तव में इसकी नकल कर सकता है। अगर कोई स्वचालित हथियार गलती करता है और किसी स्कूल या अस्पताल पर हमला कर देता है, तो दोष किसका होगा? क्या यह उस प्रोग्रामर का होगा जिसने कोड लिखा, उस कमांडर का जिसने सिस्टम को तैनात किया, या उस निर्माता का जिसने इसे बनाया? जवाबदेही का यह अंतर युद्ध अपराधों को सॉफ्टवेयर की गड़बड़ी का मामला बना देने का खतरा पैदा करता है, जिसमें निर्दोष लोगों की जान जाने के लिए कोई भी वास्तव में जिम्मेदार नहीं होगा।

यह चुनौती इन हथियारों के प्रसार के खतरे से और भी बढ़ जाती है। हालांकि सबसे उन्नत सिस्टम फिलहाल महाशक्तियों द्वारा विकसित किए जा रहे हैं, लेकिन इसके पीछे की तकनीक सस्ती और अधिक सुलभ होती जा रही है। सबसे डरावनी संभावना स्वचालित ड्रोन झुंड का गैर-सरकारी संगठनों या आतंकवादी समूहों तक फैलना है। निकट भविष्य में, कोई छोटा संगठन भी हजारों छोटे, समन्वित ड्रोन से हमला करने की क्षमता हासिल कर सकता है जो किसी शहर की सुरक्षा को तहस-नहस कर सकते हैं। यह बड़े पैमाने पर हताहत करने वाले हमलों को अंजाम देने की राह को बहुत आसान बना देता है, और एक व्यापक और लगातार बना रहने वाला वैश्विक सुरक्षा खतरा पैदा करता है।

सालों से, जिनेवा में संयुक्त राष्ट्र में राजनयिक इस मुद्दे पर बहस कर रहे हैं, लेकिन प्रगति बहुत धीमी रही है। गैर-सरकारी संगठनों का एक वैश्विक गठबंधन, 'किलर रोबोट्स को रोकने के अभियान' के बैनर तले, इन पर पहले से ही प्रतिबंध लगाने की मांग कर रहा है, ठीक उन संधियों की तरह जो रासायनिक और जैविक हथियारों पर रोक लगाती हैं। उनका तर्क है कि जीवन और मृत्यु के फैसलों पर सार्थक मानवीय नियंत्रण बना रहना चाहिए। दूसरी ओर, प्रमुख सैन्य शक्तियों ने किसी भी बाध्यकारी संधि का विरोध किया है, और वे आचार संहिता के अस्पष्ट नियमों को प्राथमिकता देते हैं जो इन सिस्टम के विकास को सीमित नहीं करेंगे। इसका नतीजा एक खतरनाक गतिरोध है, जहां तकनीक कूटनीति से कहीं ज़्यादा तेज़ी से आगे बढ़ रही है।

स्वचालित हथियारों का विकास संघर्ष के इतिहास में सबसे बुनियादी बदलावों में से एक है, जिसकी तुलना बारूद या परमाणु बम के आविष्कार से की जा सकती है। यह सिर्फ एक नया हथियार नहीं है, बल्कि युद्ध के मैदान में एक नए तरह का किरदार है—एक ऐसा किरदार जो महसूस नहीं करता, डरता नहीं है, या अपने आदेशों पर सवाल नहीं उठाता। अब बहस इस बारे में नहीं है कि क्या हम जान लेने की ताकत मशीनों को सौंप सकते हैं, बल्कि यह है कि क्या हमें ऐसा करना चाहिए। स्पष्ट अंतरराष्ट्रीय नियम बनाने, ठोस सीमाएं तय करने और यह सुनिश्चित करने का अवसर कि युद्ध के काम पर अंतिम नियंत्रण मानवता का ही रहे, अब बंद हो रहा है। अगर हम कार्रवाई करने में विफल रहते हैं, तो हम एक ऐसे भविष्य का जोखिम उठाते हैं जहां संघर्ष ऐसी गति और पैमाने पर लड़ा जाएगा जो मानवीय समझ और नियंत्रण से परे हो, और जिसके परिणाम ऐसे होंगे जिन्हें शायद हम कभी बदल न सकें।

Publication

The World Dispatch

Source: Editorial Desk

Category: Conflict & War