ব্ল্যাক বক্সের ভেতরে: আর্টিফিশিয়াল ইন্টেলিজেন্সের এক ক্রমবর্ধমান সমস্যা, যার ব্যাখ্যা আমাদের অজানা

২৮ মার্চ, ২০২৬

ব্ল্যাক বক্সের ভেতরে: আর্টিফিশিয়াল ইন্টেলিজেন্সের এক ক্রমবর্ধমান সমস্যা, যার ব্যাখ্যা আমাদের অজানা

আমরা সাধারণত কম্পিউটারকে পুরোপুরি যুক্তিনির্ভর একটি যন্ত্র বলে মনে করি। এটি নিয়ম মেনে চলে। কোনো মেশিন যখন একটি উত্তর দেয়, আমরা ধরে নিই যে এর পেছনে কোড এবং গণনার একটি সুস্পষ্ট ও অনুসরণযোগ্য পথ রয়েছে। কিন্তু আজকের বিশ্বকে প্রভাবিত করছে এমন অনেক শক্তিশালী আর্টিফিশিয়াল ইন্টেলিজেন্স সিস্টেমের ক্ষেত্রে এই ধারণাটি বিপজ্জনকভাবে ভুল। এমনকি এদের নির্মাতারাও সব সময় একটি নির্দিষ্ট সিদ্ধান্তের পেছনের সঠিক কারণ ব্যাখ্যা করতে পারেন না। একেই বলা হয় “ব্ল্যাক বক্স” সমস্যা, এবং এটি আধুনিক এআই যুগের অন্যতম গুরুত্বপূর্ণ ও উদ্বেগজনক একটি চ্যালেঞ্জ।

এর মূলে যে বিষয়টি রয়েছে, তা কোনো ত্রুটি নয়, বরং উন্নত এআই যেভাবে শেখে, এটি তারই একটি বৈশিষ্ট্য। চিরাচরিত সফটওয়্যারের মতো এদেরকে নির্দিষ্ট ‘যদি-তাহলে’ (if-then) নির্দেশনা দিয়ে প্রোগ্রাম করা হয় না। আজকের জেনারেটিভ এআই এবং জটিল অটোমেশনের পেছনের মূল চালিকাশক্তি হলো ডিপ লার্নিং মডেল, যা মানব মস্তিষ্কের অনুকরণে তৈরি। এই মডেলগুলো কৃত্রিম “নিউরন”-এর বিশাল ও স্তরযুক্ত নেটওয়ার্ক দিয়ে গঠিত। এআই বিশাল ডেটাসেট বিশ্লেষণ করে শেখে এবং নিউরনগুলোর মধ্যে সংযোগ ততক্ষণ পর্যন্ত পরিবর্তন করতে থাকে, যতক্ষণ না এটি কোনো প্যাটার্ন চিনতে পারে। যেমন, একটি সিস্টেমকে টিউমার শনাক্ত করার জন্য লক্ষ লক্ষ মেডিকেল স্ক্যান দেখিয়ে প্রশিক্ষণ দেওয়া হতে পারে, অথবা ঋণের ঝুঁকি মূল্যায়নের জন্য কয়েক দশকের আর্থিক ডেটা দেওয়া হতে পারে। এর ফলে এমন একটি মেশিন তৈরি হয় যা অবিশ্বাস্য নির্ভুলতার সাথে তার কাজ করতে পারে। কিন্তু এর অভ্যন্তরীণ যুক্তি কোটি কোটি গাণিতিক হিসাব ও পক্ষপাতের এক জটিল জাল, যা মানুষের পক্ষে বোঝা প্রায় অসম্ভব।

এই অস্বচ্ছতার বাস্তব জীবনে গভীর প্রভাব রয়েছে। যেমন ধরা যাক আর্থিক খাতের কথা, যেখানে ঋণ বা ক্রেডিট কার্ড অনুমোদন বা বাতিল করার জন্য ক্রমবর্ধমান হারে এআই মডেল ব্যবহার করা হচ্ছে। কোনো ব্যক্তির ঋণ আবেদন বাতিল হলে তার কারণ জানার অধিকার আছে। কিন্তু একটি ব্ল্যাক বক্স মডেল ব্যবহারকারী ব্যাংক হয়তো এর কোনো সুনির্দিষ্ট এবং মানুষের বোধগম্য কারণ দেখাতে পারবে না। তারা শুধু বলতে পারে, “অ্যালগরিদম নির্ধারণ করেছে যে আপনি একজন উচ্চ-ঝুঁকির আবেদনকারী।” স্ট্যানফোর্ডের ‘ইনস্টিটিউট ফর হিউম্যান-সেন্টারড এআই’-এর মতো প্রতিষ্ঠানের গবেষণায় বারবার দেখা গেছে যে, এই মডেলগুলোর জটিলতার কারণে বাইরের পরীক্ষকদের পক্ষে এর ভেতরে লুকিয়ে থাকা পক্ষপাত খুঁজে বের করা প্রায় অসম্ভব। যদি একটি মডেলকে ঐতিহাসিকভাবে পক্ষপাতদুষ্ট ডেটার ওপর প্রশিক্ষণ দেওয়া হয়, তবে এটি কোনো নির্দিষ্ট নির্দেশনা ছাড়াই নির্দিষ্ট এলাকা বা জনগোষ্ঠীর আবেদনকারীদের প্রতি অন্যায় আচরণ করতে শিখতে পারে। এর ফলে প্রযুক্তিগত নিরপেক্ষতার আড়ালে বৈষম্য বাড়তেই থাকে।

যখন জীবন-মৃত্যুর প্রশ্ন আসে, তখন ঝুঁকি আরও বেড়ে যায়। একটি স্বচালিত গাড়ি যখন মোড় নেওয়া বা ব্রেক করার জন্য মুহূর্তের মধ্যে সিদ্ধান্ত নেয়, তখন এর পেছনের যুক্তি বুঝতে পারা নিরাপত্তা ও জবাবদিহিতার জন্য অত্যন্ত জরুরি। যদি কোনো দুর্ঘটনা ঘটে, তবে দোষ কার তা নির্ধারণ করা অবিশ্বাস্যভাবে কঠিন হয়ে পড়ে। এটি কি সেন্সরের ব্যর্থতা, কোডের ত্রুটি, নাকি প্রশিক্ষণের সময় শেখা কোনো প্যাটার্নের ভিত্তিতে মডেলের নেওয়া একটি যৌক্তিক কিন্তু নৈতিকভাবে প্রশ্নবিদ্ধ সিদ্ধান্ত? সুস্পষ্ট ব্যাখ্যা ছাড়া সিস্টেমটিকে উন্নত করা এবং ভবিষ্যতের ব্যর্থতা রোধ করার বিষয়টি অনেকটা অনুমানের ওপর নির্ভর করে। একই চ্যালেঞ্জ চিকিৎসাক্ষেত্রেও রয়েছে। যেমন, একটি এআই হয়তো কোনো রোগীর স্ক্যান দেখে সেটিকে ক্যান্সার হিসেবে চিহ্নিত করতে পারে। যদিও এটি জীবন রক্ষাকারী একটি টুল হতে পারে, কিন্তু চিকিৎসকদের এর সুপারিশের ওপর ভরসা করতে এবং চূড়ান্ত ও দায়িত্বশীল সিদ্ধান্ত নিতে এর পেছনের কারণটি বোঝা প্রয়োজন।

এই ক্রমবর্ধমান সমস্যার প্রতিক্রিয়ায় ‘এক্সপ্লেইনেবল এআই’ বা XAI নামে একটি বিশেষ গবেষণা ক্ষেত্র তৈরি হয়েছে। গবেষকরা ব্ল্যাক বক্সের ভেতরে দেখার জন্য নতুন নতুন কৌশল তৈরি করছেন। কিছু পদ্ধতিতে জটিল এআই-এর আচরণ অনুকরণকারী সহজ মডেল তৈরি করা হয়, যা একটি নির্দিষ্ট ফলাফলের জন্য অপেক্ষাকৃত সহজবোধ্য ব্যাখ্যা দেয়। অন্য কিছু পদ্ধতিতে ‘হিট ম্যাপ’ তৈরির চেষ্টা করা হয়, যা দেখায় যে কোনো ইনপুটের কোন অংশ—যেমন একটি লেখার নির্দিষ্ট শব্দ বা ছবির পিক্সেল—এআই-এর চূড়ান্ত সিদ্ধান্তে সবচেয়ে বেশি প্রভাব ফেলেছে। এই টুলগুলো একটি গুরুত্বপূর্ণ প্রথম পদক্ষেপ, কিন্তু এগুলো প্রায়শই দুটি বিষয়ের মধ্যে সম্পর্ক দেখায়, এআই-এর কার্যকারণ যুক্তি সম্পর্কে প্রকৃত ধারণা দেয় না।

নীতিনির্ধারকরাও বিষয়টি লক্ষ্য করতে শুরু করেছেন। উদাহরণস্বরূপ, ইউরোপীয় ইউনিয়নের যুগান্তকারী ‘এআই অ্যাক্ট’-এ “উচ্চ-ঝুঁকিপূর্ণ” বলে বিবেচিত সিস্টেমগুলোর জন্য কঠোর স্বচ্ছতার শর্ত প্রস্তাব করা হয়েছে। এতে বলা হয়েছে, কর্মসংস্থান, আইন প্রয়োগ এবং গুরুত্বপূর্ণ পরিকাঠামোর মতো ক্ষেত্রে ব্যবহৃত এআই সরবরাহকারীদের তাদের সিস্টেম কীভাবে কাজ করে এবং সিদ্ধান্তের পেছনের যুক্তি সম্পর্কে স্পষ্ট তথ্য জমা দিতে হতে পারে। এর লক্ষ্য হলো এক ধরনের জবাবদিহিতা নিশ্চিত করা, যাতে নির্মাতারা পারফরম্যান্সের পাশাপাশি ব্যাখ্যাযোগ্যতার বিষয়টিকেও অগ্রাধিকার দেন। তবে, যে প্রযুক্তি স্বভাবতই অস্বচ্ছ, তার জন্য স্বচ্ছতার আইন তৈরি করা এক বিরাট চ্যালেঞ্জ।

শেষ পর্যন্ত, ব্ল্যাক বক্স সমস্যাটি আমাদের একটি মৌলিক আপসের মুখোমুখি করে। আরও শক্তিশালী এবং নির্ভুল এআই তৈরির দৌড়ে আমরা এমন সরঞ্জাম তৈরি করেছি, যা আমাদের নিজেদের বোঝার ক্ষমতাকে ছাড়িয়ে গেছে। একারণে, এই সিস্টেমগুলো ব্যবহারের পদ্ধতিতে পরিবর্তন আনা জরুরি। মানুষের অধিকার, আর্থিক অবস্থা এবং নিরাপত্তাকে প্রভাবিত করে এমন গুরুত্বপূর্ণ সিদ্ধান্তের ক্ষেত্রে “হিউম্যান-ইন-দ্য-লুপ” বা ‘মানুষের অংশগ্রহণমূলক’ পদ্ধতি অপরিহার্য হতে পারে। এই মডেলে, এআই একজন শক্তিশালী উপদেষ্টার মতো কাজ করে, যা বিভিন্ন প্যাটার্ন তুলে ধরে এবং সুপারিশ করে। কিন্তু চূড়ান্ত ও জবাবদিহিমূলক সিদ্ধান্ত নেওয়ার দায়িত্ব থাকে একজন বিশেষজ্ঞ মানুষের ওপর, যিনি পরিস্থিতি, নৈতিকতা এবং সাধারণ জ্ঞান প্রয়োগ করতে পারেন।

এই সমস্যার সমাধান করা শুধুমাত্র কম্পিউটার বিজ্ঞানীদের জন্য একটি প্রযুক্তিগত কাজ নয়; এটি একটি সামাজিক দায়িত্ব। যেহেতু এআই আমাদের জীবনের প্রতিটি ক্ষেত্রে আরও গভীরভাবে জড়িয়ে যাচ্ছে, তাই এর ওপর আমাদের আস্থা নির্ভর করবে একে বুঝতে পারার ক্ষমতার ওপর। ব্ল্যাক বক্স খোলার এই প্রচেষ্টা কেবল একটি অ্যালগরিদমের ত্রুটি সংশোধনের চেয়েও বেশি কিছু। এর আসল উদ্দেশ্য হলো, আমরা যে স্বয়ংক্রিয় বিশ্ব তৈরি করছি, তা যেন মানবিক মূল্যবোধের সঙ্গে সামঞ্জস্যপূর্ণ থাকে এবং এর সিদ্ধান্তগুলো, যতই বুদ্ধিদীপ্ত হোক না কেন, আমাদের কাছে জবাবদিহি করতে বাধ্য থাকে।

Publication

The World Dispatch

Source: Editorial Desk

Category: AI