নীরব যুদ্ধক্ষেত্র: নিয়মকানুন তৈরির আগেই যেভাবে যুদ্ধের সংজ্ঞা বদলে দিচ্ছে স্বয়ংক্রিয় অস্ত্র
২৮ মার্চ, ২০২৬

ঘাতক রোবটের ছবি বলতেই আমাদের কল্পবিজ্ঞানের কথা মনে আসে—ধাতব, মানুষের মতো দেখতে এক সৈনিক যুদ্ধক্ষেত্রের দিকে এগিয়ে যাচ্ছে। কিন্তু যুদ্ধের আসল বিপ্লব ঘটছে অনেক নীরবে। এর আসল রূপ হলিউডের সাইবর্গের মতো নয়, বরং ড্রোন, ক্ষেপণাস্ত্র এবং বিভিন্ন প্রতিরক্ষা ব্যবস্থায় থাকা বুদ্ধিমান সফটওয়্যার। এই নতুন ধরনের স্বয়ংক্রিয় অস্ত্র মানুষের সরাসরি নিয়ন্ত্রণ ছাড়াই লক্ষ্যবস্তু খুঁজে বের করে হামলা চালাতে সক্ষম। এটি এখন গবেষণাগার থেকে সোজা যুদ্ধক্ষেত্রে চলে আসছে। এই পরিস্থিতি বিশ্বকে এমন এক কঠিন বাস্তবের মুখোমুখি করছে, যার জন্য অনেকেই প্রস্তুত নয়: যুদ্ধের সবচেয়ে গুরুত্বপূর্ণ সিদ্ধান্তগুলো হয়তো আর জেনারেলরা নন, বরং অ্যালগরিদম নিতে শুরু করবে।
এই পরিবর্তন ইতোমধ্যেই শুরু হয়েছে। ২০২১ সালে লিবিয়ার সংঘাত নিয়ে জাতিসংঘের একটি প্রতিবেদনে বলা হয়, তুরস্কের তৈরি কারগু-২ ড্রোন, যা এক ধরনের ‘লোইটারিং মিউনিশন’, সম্পূর্ণ স্বয়ংক্রিয়ভাবে পিছু হটা সৈন্যদের খুঁজে বের করে ‘হামলা’ চালিয়ে থাকতে পারে। যদিও এই ঘটনার বিস্তারিত বিবরণ নিয়ে বিতর্ক রয়েছে, তবে এটি একটি গুরুত্বপূর্ণ মোড় চিহ্নিত করেছে। এই প্রথম কোনো যন্ত্র নিজের কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে মানুষ হত্যা করেছে বলে নথিভুক্ত হয়ে থাকতে পারে। যুক্তরাষ্ট্র, চীন এবং রাশিয়ার মতো প্রধান সামরিক শক্তিগুলো কৃত্রিম বুদ্ধিমত্তা-চালিত যুদ্ধাস্ত্রে কোটি কোটি ডলার বিনিয়োগ করছে। তারা মনে করে, স্বয়ংক্রিয় ব্যবস্থার গতি তাদের অপ্রতিরোধ্য সুবিধা দেবে। একটি কৃত্রিম বুদ্ধিমত্তা সেন্সরের তথ্য বিশ্লেষণ করে, হুমকি শনাক্ত করে এবং মিলিসেকেন্ডের মধ্যে পাল্টা হামলা চালাতে পারে—সিদ্ধান্ত নেওয়ার এই গতি মানুষের পক্ষে মেলানো একেবারেই অসম্ভব।
স্বয়ংক্রিয় ব্যবস্থার দিকে এই ঝোঁকের পেছনে রয়েছে সামরিক প্রয়োজনীয়তার এক শক্তিশালী যুক্তি। হাইপারসনিক ক্ষেপণাস্ত্র এবং জটিল ইলেকট্রনিক যুদ্ধের এই যুগে, দেশগুলো ভয় পাচ্ছে যে তাদের প্রতিরক্ষা ব্যবস্থা যদি মানুষের ধীর প্রতিক্রিয়ার উপর নির্ভর করে, তবে তারা অসহায় হয়ে পড়বে। প্রায়শই নিরাপত্তার যুক্তি দিয়ে বলা হয় যে, স্বয়ংক্রিয় ব্যবস্থাগুলো মানুষ সৈনিকের চেয়ে বেশি নির্ভুল হতে পারে, কারণ মানুষ ক্লান্তি, ভয় এবং ভুল সিদ্ধান্তের শিকার হয়। এর সমর্থকরা যুক্তি দেন যে, মানুষকে সরাসরি যুদ্ধ থেকে সরিয়ে আনলে নিজেদের পক্ষের সেনাসদস্যদের হতাহতের সংখ্যা কমানো যায়। এই যুক্তিটি একটি শক্তিশালী এবং সম্ভবত অপরিবর্তনীয় এক গতি তৈরি করছে। এটি একটি চিরাচরিত নিরাপত্তা সংকট তৈরি করছে: কোনো দেশ এই অস্ত্র তৈরি করতে না চাইলেও, তাকে তা করতে হচ্ছে এই ভয়ে যে তার প্রতিপক্ষরা નિર્ણায়কভাবে এগিয়ে যাবে।
তবে, এই প্রযুক্তিগত অস্ত্র প্রতিযোগিতার সাথে গভীর ঝুঁকিও জড়িয়ে আছে, যা কেবল যুদ্ধক্ষেত্রের মধ্যেই সীমাবদ্ধ নয়। সবচেয়ে বড় বিপদ হলো অপ্রত্যাশিতভাবে সংঘাত বেড়ে যাওয়ার আশঙ্কা। র্যান্ড কর্পোরেশনের মতো থিঙ্কট্যাঙ্কগুলোর পরিচালিত ওয়ার গেম এবং সিমুলেশনে বারবার দেখা গেছে যে, যখন স্বয়ংক্রিয় ব্যবস্থাগুলো একে অপরের মুখোমুখি হয়, তখন সংঘাত যন্ত্রের গতিতে নিয়ন্ত্রণের বাইরে চলে যেতে পারে। সীমান্তে একটি ছোটখাটো সংঘর্ষকে প্রতিদ্বন্দ্বী অ্যালগরিদমগুলো ভুলভাবে ব্যাখ্যা করতে পারে। এর ফলে স্বয়ংক্রিয় প্রতিক্রিয়ার একটি শৃঙ্খল তৈরি হতে পারে, যা কূটনীতিকরা ফোনে কথা বলার সুযোগ পাওয়ার আগেই একটি পুরোদস্তুর যুদ্ধে রূপ নিতে পারে। এই অতি-দ্রুত পরিবেশে মানুষের ভাবনাচিন্তা, উত্তেজনা কমানো এবং কূটনীতির কোনো সুযোগই থাকে না।
তাছাড়া, প্রাণঘাতী স্বয়ংক্রিয় ব্যবস্থা একটি আইনি এবং নৈতিক শূন্যতা তৈরি করে। যুদ্ধের আচরণ পরিচালনাকারী আন্তর্জাতিক মানবিক আইনের পুরো কাঠামোটিই মানুষের দায়বদ্ধতার ওপর ভিত্তি করে তৈরি। ‘ডিস্টিংশন’ (সৈনিক ও সাধারণ মানুষের মধ্যে পার্থক্য করা) এবং ‘প্রোপোরশনালিটি’ (সামরিক লক্ষ্যের তুলনায় হামলাটি অতিরিক্ত ধ্বংসাত্মক কি না, তা নিশ্চিত করা)-এর মতো নীতিগুলোর জন্য জটিল এবং পরিস্থিতি-নির্ভর নৈতিক বিচার-বুদ্ধির প্রয়োজন হয়। একটি কৃত্রিম বুদ্ধিমত্তা আদৌ এর নকল করতে পারবে কি না, তা স্পষ্ট নয়। যদি একটি স্বয়ংক্রিয় অস্ত্র ভুল করে কোনো স্কুল বা হাসপাতালে হামলা করে, তাহলে দায়ী কে হবে? যে প্রোগ্রামার কোডটি লিখেছেন, তিনি? নাকি যে কমান্ডার সিস্টেমটি ব্যবহার করেছেন, তিনি? অথবা যে নির্মাতা এটি তৈরি করেছেন, তিনি? এই ‘জবাবদিহিতার ফাঁক’ যুদ্ধাপরাধকে সফটওয়্যারের ত্রুটি বানিয়ে ফেলার আশঙ্কা তৈরি করে, যেখানে নিরীহ মানুষের মৃত্যুর জন্য真正 অর্থে কেউই দায়ী থাকবে না।
অস্ত্রের বিস্তারের হুমকি এই চ্যালেঞ্জকে আরও জটিল করে তুলেছে। যদিও সবচেয়ে উন্নত ব্যবস্থাগুলো বর্তমানে পরাশক্তিরাই তৈরি করছে, এর পেছনের প্রযুক্তি সস্তা এবং সহজলভ্য হয়ে উঠছে। সবচেয়ে ভয়ানক আশঙ্কা হলো, রাষ্ট্রীয় নয় এমন কোনো গোষ্ঠী বা সন্ত্রাসী সংগঠনের হাতে স্বয়ংক্রিয় ড্রোনের ঝাঁক চলে যাওয়া। অদূর ভবিষ্যতে, একটি ছোট সংগঠনও হাজার হাজার ছোট, সমন্বিত ড্রোন দিয়ে হামলা চালানোর ক্ষমতা অর্জন করতে পারে, যা একটি শহরের প্রতিরক্ষা ব্যবস্থা ভেঙে দিতে সক্ষম। এটি বড় ধরনের প্রাণঘাতী হামলা চালানোর পথে বাধা অনেকটাই কমিয়ে দেয়, যা একটি দীর্ঘস্থায়ী বৈশ্বিক নিরাপত্তা হুমকি তৈরি করছে।
বছরের পর বছর ধরে জেনেভায় জাতিসংঘে কূটনীতিকরা এই বিষয়টি নিয়ে আলোচনা করছেন, কিন্তু অগ্রগতি খুবই ধীর। ‘ক্যাম্পেইন টু স্টপ কিলার রোবটস’-এর ব্যানারে বেসরকারি সংস্থাগুলোর একটি বিশ্বব্যাপী জোট রাসায়নিক ও জীবাণু অস্ত্রের মতো এই অস্ত্রের ওপরও আগাম নিষেধাজ্ঞার জন্য চাপ দিচ্ছে। তারা যুক্তি দিচ্ছে যে, জীবন-মৃত্যুর সিদ্ধান্তের ওপর অর্থবহ মানবিক নিয়ন্ত্রণ অবশ্যই বজায় রাখতে হবে। অন্যদিকে, প্রধান সামরিক শক্তিগুলো বাধ্যতামূলক কোনো চুক্তির বিরোধিতা করেছে। তারা বরং এমন কিছু অস্পষ্ট আচরণবিধি পছন্দ করে, যা তাদের এই ব্যবস্থাগুলো তৈরির পথে বাধা হবে না। এর ফলে একটি বিপজ্জনক অচলাবস্থা তৈরি হয়েছে, যেখানে প্রযুক্তি কূটনীতির চেয়ে অনেক দ্রুতগতিতে এগিয়ে যাচ্ছে।
স্বয়ংক্রিয় অস্ত্রের উদ্ভাবন যুদ্ধের ইতিহাসে অন্যতম মৌলিক একটি পরিবর্তন, যা বারুদ বা পারমাণবিক বোমা আবিষ্কারের সঙ্গে তুলনীয়। এটি কেবল একটি নতুন অস্ত্র নয়, বরং যুদ্ধক্ষেত্রে এটি এক নতুন ধরনের চরিত্র—যার কোনো অনুভূতি নেই, ভয় নেই বা যে তার আদেশ নিয়ে প্রশ্ন তোলে না। এখন বিতর্কটা আর এটা নিয়ে নয় যে আমরা যন্ত্রের হাতে প্রাণঘাতী ক্ষমতা তুলে দিতে পারি কি না, বরং প্রশ্নটি হলো, আমাদের তা করা উচিত কি না। স্পষ্ট আন্তর্জাতিক নিয়ম তৈরি, সুস্পষ্ট সীমা নির্ধারণ এবং যুদ্ধের চূড়ান্ত নিয়ন্ত্রণ যেন মানবজাতির হাতেই থাকে তা নিশ্চিত করার সুযোগের দরজা বন্ধ হয়ে আসছে। আমরা যদি পদক্ষেপ নিতে ব্যর্থ হই, তাহলে এমন একটি ভবিষ্যৎ তৈরির ঝুঁকি নেব, যেখানে যুদ্ধ এমন গতি ও মাত্রায় চলবে, যা মানুষের বোঝা ও নিয়ন্ত্রণের বাইরে। আর তার পরিণতি হয়তো আমরা আর বদলাতে পারব না।