নীরব যুদ্ধক্ষেত্র: নিয়মকানুন তৈরির আগেই যেভাবে যুদ্ধের সংজ্ঞা বদলে দিচ্ছে স্বয়ংক্রিয় অস্ত্র

২৮ মার্চ, ২০২৬

নীরব যুদ্ধক্ষেত্র: নিয়মকানুন তৈরির আগেই যেভাবে যুদ্ধের সংজ্ঞা বদলে দিচ্ছে স্বয়ংক্রিয় অস্ত্র

ঘাতক রোবটের ছবি বলতেই আমাদের কল্পবিজ্ঞানের কথা মনে আসে—ধাতব, মানুষের মতো দেখতে এক সৈনিক যুদ্ধক্ষেত্রের দিকে এগিয়ে যাচ্ছে। কিন্তু যুদ্ধের আসল বিপ্লব ঘটছে অনেক নীরবে। এর আসল রূপ হলিউডের সাইবর্গের মতো নয়, বরং ড্রোন, ক্ষেপণাস্ত্র এবং বিভিন্ন প্রতিরক্ষা ব্যবস্থায় থাকা বুদ্ধিমান সফটওয়্যার। এই নতুন ধরনের স্বয়ংক্রিয় অস্ত্র মানুষের সরাসরি নিয়ন্ত্রণ ছাড়াই লক্ষ্যবস্তু খুঁজে বের করে হামলা চালাতে সক্ষম। এটি এখন গবেষণাগার থেকে সোজা যুদ্ধক্ষেত্রে চলে আসছে। এই পরিস্থিতি বিশ্বকে এমন এক কঠিন বাস্তবের মুখোমুখি করছে, যার জন্য অনেকেই প্রস্তুত নয়: যুদ্ধের সবচেয়ে গুরুত্বপূর্ণ সিদ্ধান্তগুলো হয়তো আর জেনারেলরা নন, বরং অ্যালগরিদম নিতে শুরু করবে।

এই পরিবর্তন ইতোমধ্যেই শুরু হয়েছে। ২০২১ সালে লিবিয়ার সংঘাত নিয়ে জাতিসংঘের একটি প্রতিবেদনে বলা হয়, তুরস্কের তৈরি কারগু-২ ড্রোন, যা এক ধরনের ‘লোইটারিং মিউনিশন’, সম্পূর্ণ স্বয়ংক্রিয়ভাবে পিছু হটা সৈন্যদের খুঁজে বের করে ‘হামলা’ চালিয়ে থাকতে পারে। যদিও এই ঘটনার বিস্তারিত বিবরণ নিয়ে বিতর্ক রয়েছে, তবে এটি একটি গুরুত্বপূর্ণ মোড় চিহ্নিত করেছে। এই প্রথম কোনো যন্ত্র নিজের কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে মানুষ হত্যা করেছে বলে নথিভুক্ত হয়ে থাকতে পারে। যুক্তরাষ্ট্র, চীন এবং রাশিয়ার মতো প্রধান সামরিক শক্তিগুলো কৃত্রিম বুদ্ধিমত্তা-চালিত যুদ্ধাস্ত্রে কোটি কোটি ডলার বিনিয়োগ করছে। তারা মনে করে, স্বয়ংক্রিয় ব্যবস্থার গতি তাদের অপ্রতিরোধ্য সুবিধা দেবে। একটি কৃত্রিম বুদ্ধিমত্তা সেন্সরের তথ্য বিশ্লেষণ করে, হুমকি শনাক্ত করে এবং মিলিসেকেন্ডের মধ্যে পাল্টা হামলা চালাতে পারে—সিদ্ধান্ত নেওয়ার এই গতি মানুষের পক্ষে মেলানো একেবারেই অসম্ভব।

স্বয়ংক্রিয় ব্যবস্থার দিকে এই ঝোঁকের পেছনে রয়েছে সামরিক প্রয়োজনীয়তার এক শক্তিশালী যুক্তি। হাইপারসনিক ক্ষেপণাস্ত্র এবং জটিল ইলেকট্রনিক যুদ্ধের এই যুগে, দেশগুলো ভয় পাচ্ছে যে তাদের প্রতিরক্ষা ব্যবস্থা যদি মানুষের ধীর প্রতিক্রিয়ার উপর নির্ভর করে, তবে তারা অসহায় হয়ে পড়বে। প্রায়শই নিরাপত্তার যুক্তি দিয়ে বলা হয় যে, স্বয়ংক্রিয় ব্যবস্থাগুলো মানুষ সৈনিকের চেয়ে বেশি নির্ভুল হতে পারে, কারণ মানুষ ক্লান্তি, ভয় এবং ভুল সিদ্ধান্তের শিকার হয়। এর সমর্থকরা যুক্তি দেন যে, মানুষকে সরাসরি যুদ্ধ থেকে সরিয়ে আনলে নিজেদের পক্ষের সেনাসদস্যদের হতাহতের সংখ্যা কমানো যায়। এই যুক্তিটি একটি শক্তিশালী এবং সম্ভবত অপরিবর্তনীয় এক গতি তৈরি করছে। এটি একটি চিরাচরিত নিরাপত্তা সংকট তৈরি করছে: কোনো দেশ এই অস্ত্র তৈরি করতে না চাইলেও, তাকে তা করতে হচ্ছে এই ভয়ে যে তার প্রতিপক্ষরা નિર્ણায়কভাবে এগিয়ে যাবে।

তবে, এই প্রযুক্তিগত অস্ত্র প্রতিযোগিতার সাথে গভীর ঝুঁকিও জড়িয়ে আছে, যা কেবল যুদ্ধক্ষেত্রের মধ্যেই সীমাবদ্ধ নয়। সবচেয়ে বড় বিপদ হলো অপ্রত্যাশিতভাবে সংঘাত বেড়ে যাওয়ার আশঙ্কা। র‍্যান্ড কর্পোরেশনের মতো থিঙ্কট্যাঙ্কগুলোর পরিচালিত ওয়ার গেম এবং সিমুলেশনে বারবার দেখা গেছে যে, যখন স্বয়ংক্রিয় ব্যবস্থাগুলো একে অপরের মুখোমুখি হয়, তখন সংঘাত যন্ত্রের গতিতে নিয়ন্ত্রণের বাইরে চলে যেতে পারে। সীমান্তে একটি ছোটখাটো সংঘর্ষকে প্রতিদ্বন্দ্বী অ্যালগরিদমগুলো ভুলভাবে ব্যাখ্যা করতে পারে। এর ফলে স্বয়ংক্রিয় প্রতিক্রিয়ার একটি শৃঙ্খল তৈরি হতে পারে, যা কূটনীতিকরা ফোনে কথা বলার সুযোগ পাওয়ার আগেই একটি পুরোদস্তুর যুদ্ধে রূপ নিতে পারে। এই অতি-দ্রুত পরিবেশে মানুষের ভাবনাচিন্তা, উত্তেজনা কমানো এবং কূটনীতির কোনো সুযোগই থাকে না।

তাছাড়া, প্রাণঘাতী স্বয়ংক্রিয় ব্যবস্থা একটি আইনি এবং নৈতিক শূন্যতা তৈরি করে। যুদ্ধের আচরণ পরিচালনাকারী আন্তর্জাতিক মানবিক আইনের পুরো কাঠামোটিই মানুষের দায়বদ্ধতার ওপর ভিত্তি করে তৈরি। ‘ডিস্টিংশন’ (সৈনিক ও সাধারণ মানুষের মধ্যে পার্থক্য করা) এবং ‘প্রোপোরশনালিটি’ (সামরিক লক্ষ্যের তুলনায় হামলাটি অতিরিক্ত ধ্বংসাত্মক কি না, তা নিশ্চিত করা)-এর মতো নীতিগুলোর জন্য জটিল এবং পরিস্থিতি-নির্ভর নৈতিক বিচার-বুদ্ধির প্রয়োজন হয়। একটি কৃত্রিম বুদ্ধিমত্তা আদৌ এর নকল করতে পারবে কি না, তা স্পষ্ট নয়। যদি একটি স্বয়ংক্রিয় অস্ত্র ভুল করে কোনো স্কুল বা হাসপাতালে হামলা করে, তাহলে দায়ী কে হবে? যে প্রোগ্রামার কোডটি লিখেছেন, তিনি? নাকি যে কমান্ডার সিস্টেমটি ব্যবহার করেছেন, তিনি? অথবা যে নির্মাতা এটি তৈরি করেছেন, তিনি? এই ‘জবাবদিহিতার ফাঁক’ যুদ্ধাপরাধকে সফটওয়্যারের ত্রুটি বানিয়ে ফেলার আশঙ্কা তৈরি করে, যেখানে নিরীহ মানুষের মৃত্যুর জন্য真正 অর্থে কেউই দায়ী থাকবে না।

অস্ত্রের বিস্তারের হুমকি এই চ্যালেঞ্জকে আরও জটিল করে তুলেছে। যদিও সবচেয়ে উন্নত ব্যবস্থাগুলো বর্তমানে পরাশক্তিরাই তৈরি করছে, এর পেছনের প্রযুক্তি সস্তা এবং সহজলভ্য হয়ে উঠছে। সবচেয়ে ভয়ানক আশঙ্কা হলো, রাষ্ট্রীয় নয় এমন কোনো গোষ্ঠী বা সন্ত্রাসী সংগঠনের হাতে স্বয়ংক্রিয় ড্রোনের ঝাঁক চলে যাওয়া। অদূর ভবিষ্যতে, একটি ছোট সংগঠনও হাজার হাজার ছোট, সমন্বিত ড্রোন দিয়ে হামলা চালানোর ক্ষমতা অর্জন করতে পারে, যা একটি শহরের প্রতিরক্ষা ব্যবস্থা ভেঙে দিতে সক্ষম। এটি বড় ধরনের প্রাণঘাতী হামলা চালানোর পথে বাধা অনেকটাই কমিয়ে দেয়, যা একটি দীর্ঘস্থায়ী বৈশ্বিক নিরাপত্তা হুমকি তৈরি করছে।

বছরের পর বছর ধরে জেনেভায় জাতিসংঘে কূটনীতিকরা এই বিষয়টি নিয়ে আলোচনা করছেন, কিন্তু অগ্রগতি খুবই ধীর। ‘ক্যাম্পেইন টু স্টপ কিলার রোবটস’-এর ব্যানারে বেসরকারি সংস্থাগুলোর একটি বিশ্বব্যাপী জোট রাসায়নিক ও জীবাণু অস্ত্রের মতো এই অস্ত্রের ওপরও আগাম নিষেধাজ্ঞার জন্য চাপ দিচ্ছে। তারা যুক্তি দিচ্ছে যে, জীবন-মৃত্যুর সিদ্ধান্তের ওপর অর্থবহ মানবিক নিয়ন্ত্রণ অবশ্যই বজায় রাখতে হবে। অন্যদিকে, প্রধান সামরিক শক্তিগুলো বাধ্যতামূলক কোনো চুক্তির বিরোধিতা করেছে। তারা বরং এমন কিছু অস্পষ্ট আচরণবিধি পছন্দ করে, যা তাদের এই ব্যবস্থাগুলো তৈরির পথে বাধা হবে না। এর ফলে একটি বিপজ্জনক অচলাবস্থা তৈরি হয়েছে, যেখানে প্রযুক্তি কূটনীতির চেয়ে অনেক দ্রুতগতিতে এগিয়ে যাচ্ছে।

স্বয়ংক্রিয় অস্ত্রের উদ্ভাবন যুদ্ধের ইতিহাসে অন্যতম মৌলিক একটি পরিবর্তন, যা বারুদ বা পারমাণবিক বোমা আবিষ্কারের সঙ্গে তুলনীয়। এটি কেবল একটি নতুন অস্ত্র নয়, বরং যুদ্ধক্ষেত্রে এটি এক নতুন ধরনের চরিত্র—যার কোনো অনুভূতি নেই, ভয় নেই বা যে তার আদেশ নিয়ে প্রশ্ন তোলে না। এখন বিতর্কটা আর এটা নিয়ে নয় যে আমরা যন্ত্রের হাতে প্রাণঘাতী ক্ষমতা তুলে দিতে পারি কি না, বরং প্রশ্নটি হলো, আমাদের তা করা উচিত কি না। স্পষ্ট আন্তর্জাতিক নিয়ম তৈরি, সুস্পষ্ট সীমা নির্ধারণ এবং যুদ্ধের চূড়ান্ত নিয়ন্ত্রণ যেন মানবজাতির হাতেই থাকে তা নিশ্চিত করার সুযোগের দরজা বন্ধ হয়ে আসছে। আমরা যদি পদক্ষেপ নিতে ব্যর্থ হই, তাহলে এমন একটি ভবিষ্যৎ তৈরির ঝুঁকি নেব, যেখানে যুদ্ধ এমন গতি ও মাত্রায় চলবে, যা মানুষের বোঝা ও নিয়ন্ত্রণের বাইরে। আর তার পরিণতি হয়তো আমরা আর বদলাতে পারব না।

Publication

The World Dispatch

Source: Editorial Desk

Category: Conflict & War