AI কোড ফাঁস হলে বিপদ শুধু কোম্পানির নয়

১ এপ্রিল, ২০২৬

AI কোড ফাঁস হলে বিপদ শুধু কোম্পানির নয়

“সোর্স কোড ফাঁস” কথাটি শুনলে বেশিরভাগ মানুষ মনে করেন এটি কোনো কোম্পানির জন্য লজ্জার বিষয়, বাণিজ্যিক গোপনীয়তা হারানো বা প্রতিদ্বন্দ্বীদের মধ্যে আইনি লড়াইয়ের ব্যাপার। কিন্তু এই ধারণাটি সংকীর্ণ। আর্টিফিশিয়াল ইন্টেলিজেন্স বা AI-এর ক্ষেত্রে, কোড ফাঁসের অর্থ আরও বড় কিছু হতে পারে। এর মাধ্যমে একটি শক্তিশালী মডেল কীভাবে কাজ করবে, তার জন্য তৈরি করা গোপন নির্দেশাবলী, নিরাপত্তা ব্যবস্থা এবং অভ্যন্তরীণ টুলগুলো প্রকাশ্যে চলে আসতে পারে। অ্যানথ্রপিকের মতো কোনো বড় AI কোম্পানির কোড ফাঁস হলে, বিষয়টি শুধু মেধাস্বত্ব নিয়েই সীমাবদ্ধ থাকবে না। বরং এটি আরও কঠিন প্রশ্ন তুলবে যে, আজকের সবচেয়ে প্রভাবশালী AI সিস্টেমগুলোকে গুরুত্বপূর্ণ ডিজিটাল পরিকাঠামোর মতো গুরুত্ব দিয়ে রক্ষা করা হচ্ছে কি না।

এই উদ্বেগ কোনো কল্পনা নয়। আধুনিক AI সিস্টেমে একটি চ্যাট ইন্টারফেসের চেয়েও অনেক বেশি কিছু থাকে। কোম্পানিগুলো মডেল ওয়েটস, ফাইন-টিউনিং পদ্ধতি, সিস্টেম প্রম্পট, কন্টেন্ট ফিল্টার, রিট্রিভাল পাইপলাইন, মূল্যায়ন টুল এবং অভ্যন্তরীণ ড্যাশবোর্ডের ওপর ভিত্তি করে সিস্টেম তৈরি করে। এর কিছু অংশ হয়তো প্রচলিত কোড রিপোজিটরিতে কখনোই থাকে না। কিন্তু যেখানে থাকে, সেই কোড ফাঁস হলে একটি মডেলের ভেতরের দুর্বলতাগুলো বেরিয়ে আসতে পারে। অথচ লেখা, কোডিং, সার্চ, কাস্টমার সার্ভিস এবং ব্যবসায়িক সিদ্ধান্তের জন্য লক্ষ লক্ষ মানুষ সেই মডেলের ওপর নির্ভর করে। এমন একটি খাতে, যেখানে जनताকে অদৃশ্য নিরাপত্তা ব্যবস্থার ওপর বিশ্বাস করতে বলা হয়, সেখানে আংশিক তথ্য ফাঁস হওয়াও অনেক বড় ব্যাপার।

বিগত কয়েক বছরে দেখা গেছে, দ্রুত পরিবর্তনশীল AI সিস্টেমের ক্ষেত্রে এই ধরনের ফাঁস কতটা ক্ষতিকর হতে পারে। ২০২৩ সালে, গুগলের কিছু অভ্যন্তরীণ নথি অনলাইনে ফাঁস হয়। এর ফলে বিশ্বের অন্যতম বৃহৎ প্রযুক্তি সংস্থাটি ওপেন-সোর্স AI প্রতিযোগিতা নিয়ে কীভাবে ভাবছে, সে সম্পর্কে বাইরের লোকেরা স্পষ্ট ধারণা পায়। প্রায় একই সময়ে, মেটা-র LLaMA মডেলের ওয়েটস নির্দিষ্ট ব্যবহারকারীদের বাইরে ব্যাপকভাবে ছড়িয়ে পড়ে, যা এই ক্ষেত্রে পরীক্ষানিরীক্ষাকে আরও দ্রুত করে দেয়। এর সমর্থকরা বলেন, এটি গবেষণায় সাহায্য করেছে। সমালোচকদের মতে, এর ফলে উন্নত প্রযুক্তি নকল করা, নিজের মতো করে বদলানো এবং অপব্যবহার করা সহজ হয়ে গেছে। মূল কথা হলো, সব ফাঁস একরকম নয়। তবে AI ফাঁস হলে তার প্রভাব শুধু একটি কোম্পানির লাভ-ক্ষতির মধ্যেই সীমাবদ্ধ থাকে না।

সাইবার নিরাপত্তার তথ্যও উদ্বেগজনক। IBM-এর ২০২৪ সালের ‘কস্ট অফ এ ডেটা ব্রিচ’ রিপোর্ট অনুযায়ী, বিশ্বব্যাপী একটি ডেটা ব্রিচের গড় খরচ সর্বকালের সর্বোচ্চ ৪.৮৮ মিলিয়ন ডলারে পৌঁছেছে। এই পরিসংখ্যানটি সমস্ত ব্যবসার ক্ষতির হিসাব, শুধু AI কোম্পানির নয়। কিন্তু AI সংস্থাগুলোর ক্ষেত্রে ঝুঁকির একটি অতিরিক্ত স্তর রয়েছে, কারণ তাদের পণ্যগুলো প্রায়শই অন্যান্য পরিষেবার ভেতরে যুক্ত থাকে। কোনো একটি মডেল প্রদানকারী সংস্থার দুর্বলতার প্রভাব এপিআই-এর মাধ্যমে সেই মডেল ব্যবহারকারী আইন সংস্থা, হাসপাতাল, স্কুল, সফটওয়্যার টিম এবং সরকারি কন্ট্রাক্টরদের ওপরও পড়তে পারে। একটি নিরাপত্তা সংক্রান্ত ঘটনা থেকে অনেক বড় সমস্যা তৈরি হতে পারে।

এর পেছনের কারণটি সহজ কিন্তু অস্বস্তিকর। AI কোম্পানিগুলো খুব দ্রুত এগোতে চায়, কারণ বাজার গতিকে পুরস্কৃত করে। নতুন মডেল বাজারে আসা মানেই কোম্পানির মূল্যায়ন বদলে যাওয়া, বড় বড় চুক্তি পাওয়া এবং一夜ারাতি মানুষের ধারণা পরিবর্তন হওয়া। নিরাপত্তা এবং অভ্যন্তরীণ অ্যাক্সেস কন্ট্রোলের মতো বিষয়গুলো প্রায়শই ধীরগতিতে উন্নত হয়। প্রযুক্তির জগতে এই অসামঞ্জস্য নতুন কিছু নয়, কিন্তু AI-এর ক্ষেত্রে এটি আরও প্রকট। কারণ এখানে বিশাল আকারের টিম ক্লাউড টুলস, শেয়ারড রিপোজিটরি, থার্ড-পার্টি ইন্টিগ্রেশন এবং কন্ট্রাক্টর ব্যবহার করে কাজ করে। প্রতিটি অতিরিক্ত স্তর একটি নতুন দুর্বলতার কারণ হতে পারে। সহজ কথায়, যে ব্যবস্থাটি কোম্পানিগুলোকে অত্যাধুনিক সিস্টেম তৈরি করতে সাহায্য করে, সেই ব্যবস্থাই সংবেদনশীল কোড বা কনফিগারেশন डिटेल्स ভুল জায়গায় ছড়িয়ে পড়ার ঝুঁকি তৈরি করে।

এখানে একটি সাংস্কৃতিক সমস্যাও রয়েছে। AI শিল্প বছরের পর বছর ধরে নিজেদের উন্মুক্ততা, অগ্রগতি এবং দ্রুত নতুন সংস্করণ আনার মতো বিষয়গুলোকে গুরুত্ব দিয়ে এসেছে। এই মূল্যবোধগুলো গবেষণাকে এগিয়ে নিতে সাহায্য করেছে। কিন্তু এর ফলে সুস্থ তথ্য আদান-প্রদান এবং বিপজ্জনক তথ্য ফাঁসের মধ্যেকার সীমারেখা অস্পষ্ট হয়ে গেছে। অ্যাকাডেমিক মেশিন লার্নিং দীর্ঘদিন ধরেই পদ্ধতি, বেঞ্চমার্ক এবং কোড প্রকাশের ওপর নির্ভরশীল ছিল। কিন্তু বাণিজ্যিক AI এখন আর শুধু একটি অ্যাকাডেমিক প্রকল্প নয়। এটি একটি উচ্চ ঝুঁকির শিল্প, যার পণ্যগুলো আর্থিক পরামর্শ, আইনি খসড়া, শিক্ষা এবং রাজনৈতিক তথ্যের মতো বিষয়কে প্রভাবিত করে। গবেষণার সেই উন্মুক্ত যুগের নিরাপত্তার অভ্যাসগুলো এই নতুন বাস্তবতার সঙ্গে সবসময় খাপ খায় না।

অ্যানথ্রপিকের মতো কোনো কোম্পানির সোর্স কোড ফাঁস হলে, প্রথম ভয় হবে মডেলটি ক্লোন বা নকল হওয়ার। এটি একটি বাস্তব ঝুঁকি। কিন্তু এর চেয়েও বড় ঝুঁকি হলো, খারাপ উদ্দেশ্য থাকা ব্যক্তি বা গোষ্ঠী ফাঁস হওয়া তথ্য ব্যবহার করে এর নিরাপত্তা ব্যবস্থা বা গার্ডরেইলগুলো সম্পর্কে জানতে পারবে এবং সেগুলোকে পাশ কাটিয়ে যাওয়ার উপায় বের করে ফেলবে। নিরাপত্তা ব্যবস্থাগুলো সাধারণত বিভিন্ন স্তরে কাজ করে: একটি প্রম্পট ক্ষতিকারক অনুরোধগুলোকে আটকায়, অন্য একটি ক্লাসিফায়ার ঝুঁকিপূর্ণ আউটপুট শনাক্ত করে, আবার কোনো অভ্যন্তরীণ নিয়ম ঠিক করে দেয় যে মডেলটি জটিল পরিস্থিতিতে কীভাবে কাজ করবে। যদি এই স্তরগুলোর গঠন বোঝা সহজ হয়ে যায়, তবে আক্রমণকারীরা একটি নির্দেশিকা পেয়ে যায়। এটি কোনো কাল্পনিক ধারণা নয়। নিরাপত্তা গবেষকরা বারবার দেখিয়েছেন যে, মডেলগুলোকে বিশেষ ধরনের প্রম্পট দিয়ে “জেলব্রেক” করা যায় এবং পাবলিক প্রম্পট-শেয়ারিং কমিউনিটিগুলোতে ঠিক এই কাজ করার পদ্ধতি আদান-প্রদান করা হয়েছে।

এর সামাজিক প্রভাবও সমান গুরুতর। AI-এর ওপর মানুষের আস্থা এমনিতেই ভঙ্গুর। এডলম্যান ট্রাস্ট ব্যারোমিটার এবং পিউ রিসার্চ সেন্টারের সমীক্ষায় দেখা গেছে যে, AI-এর প্রভাব নিয়ে সাধারণ মানুষের মধ্যে কাজ, ভুল তথ্য এবং নিরাপত্তা নিয়ে ব্যাপক উদ্বেগ রয়েছে। মার্কিন যুক্তরাষ্ট্রে, পিউ ২০২৪ সালে রিপোর্ট করেছে যে দৈনন্দিন জীবনে AI-এর ক্রমবর্ধমান ব্যবহার নিয়ে উচ্ছ্বসিত মানুষের চেয়ে উদ্বিগ্ন মানুষের সংখ্যা বেশি। একটি বড় ধরনের কোড ফাঁসের ঘটনা এই সন্দেহকে আরও গভীর করবে। এটি প্রমাণ করবে যে, যে কোম্পানিগুলো স্কুল, হাসপাতাল এবং সরকারি সংস্থাগুলোকে বড় আকারে AI ব্যবহার করতে বলছে, তারা হয়তো নিজেদের সিস্টেমের প্রাথমিক তত্ত্বাবধান করতেই হিমশিম খাচ্ছে।

এর অর্থনৈতিক পরিণতিও ব্যাপক হতে পারে। যে ব্যবসাগুলো কোনো AI পরিষেবা প্রদানকারীকে বেছে নেয়, তারা শুধু একটি উন্নত সফটওয়্যার কেনে না। তারা নির্ভরযোগ্যতা, নিয়ম মেনে চলা এবং পরিষেবার ধারাবাহিকতার ওপর বাজি ধরে। যদি ফাঁস হওয়া কোড দুর্বল সুরক্ষা ব্যবস্থার কথা প্রকাশ করে, তবে নিয়ন্ত্রিত খাতগুলোতে থাকা ক্লায়েন্টরা তাদের পরিকল্পনা পুনর্বিবেচনা করতে বা ধীর করে দিতে পারে। এটি গুরুত্বপূর্ণ কারণ বড় সংস্থাগুলোর বিনিয়োগই এখন AI ব্যবসায়িক মডেলের কেন্দ্রবিন্দু। জেনারেটিভ AI ব্যবহার নিয়ে ম্যাককিনজির সাম্প্রতিক সমীক্ষায় দেখা গেছে, কোম্পানিগুলো এখন পরীক্ষামূলক ব্যবহার থেকে বেরিয়ে মার্কেটিং, সফটওয়্যার এবং কাস্টমার অপারেশনের মতো ক্ষেত্রে এর গভীর ব্যবহার শুরু করেছে। এই বিনিয়োগগুলো নির্ভর করে এই বিশ্বাসের ওপর যে, পরিষেবা প্রদানকারীরা শুধু ব্যবহারকারীর ডেটাই নয়, বরং তাদের সিস্টেমগুলোকেও রক্ষা করতে সক্ষম।

এর একটি নীতিগত দিকও রয়েছে। মার্কিন যুক্তরাষ্ট্র, ইউরোপীয় ইউনিয়ন এবং যুক্তরাজ্যের সরকারগুলো অত্যাধুনিক AI-এর নিরাপত্তা এবং পরিচালনা নিয়ে কঠিন প্রশ্ন তুলতে শুরু করেছে। একটি বড় ধরনের ফাঁসের ঘটনা নিয়ন্ত্রক সংস্থাগুলোকে শীর্ষস্থানীয় AI সংস্থাগুলোকে সাধারণ সফটওয়্যার বিক্রেতার পরিবর্তে সংবেদনশীল পরিকাঠামো অপারেটর হিসেবে বিবেচনা করতে বাধ্য করতে পারে। এর অর্থ হতে পারে আরও কঠোর রিপোর্টিং নিয়ম, বাইরের অডিট, অভ্যন্তরীণ ঝুঁকি মোকাবিলার জন্য শক্তিশালী নিয়ন্ত্রণ এবং আরও আনুষ্ঠানিক রেড-টিম টেস্টিং। শিল্পের কেউ কেউ এই ধারণার বিরোধিতা করে বলেন যে, কঠোর নিয়ম উদ্ভাবনকে ধীর করে দিতে পারে। কিন্তু ডিজিটাল বাজারের ইতিহাস এর বিপরীত শিক্ষা দেয়: যখন ব্যবহারকারীরা বিশ্বাস করে যে ন্যূনতম সুরক্ষা ব্যবস্থা বাস্তব, তখনই আস্থা এবং ব্যবহার বৃদ্ধি পায়।

এর বুদ্ধিমানের মতো প্রতিক্রিয়া আতঙ্কিত হওয়া নয়, বরং পরিণত হওয়া। AI সংস্থাগুলোর উচিত উচ্চ-ঝুঁকিপূর্ণ সিস্টেমে অভ্যন্তরীণ অ্যাক্সেস সীমিত করা, গবেষণার পরিবেশকে প্রোডাকশন সিস্টেম থেকে আলাদা রাখা, আরও শক্তিশালী কোড সাইনিং ও মনিটরিং ব্যবহার করা এবং নিয়মিত অভ্যন্তরীণ ঝুঁকি পর্যালোচনা করা। স্বাধীন নিরাপত্তা অডিটকে ব্যতিক্রমী না ভেবে স্বাভাবিক হিসেবে গ্রহণ করা উচিত। বড় গ্রাহকদেরও উচিত AI কেনাকে একটি সাধারণ সফটওয়্যার কেনার মতো না দেখা। তাদের পরিষেবা প্রদানকারীদের রিপোজিটরি নিরাপত্তা, ঘটনা মোকাবিলার প্রস্তুতি, কন্ট্রাক্টরদের অ্যাক্সেস এবং মডেলের নিরাপত্তা ব্যবস্থা পরীক্ষা করার বিষয়ে সরাসরি প্রশ্ন করা উচিত। বোর্ড এবং কর্মকর্তাদের বুঝতে হবে যে AI-এর ঝুঁকি শুধু খারাপ আউটপুটের মধ্যে সীমাবদ্ধ নয়, বরং যে গোপন যন্ত্রগুলো এগুলো তৈরি করে, তার মধ্যেও ঝুঁকি লুকিয়ে থাকে।

গভীর শিক্ষাটি হলো এমন একটি বিষয়, যা AI শিল্প এখনও মেনে নিতে চায় না। শক্তিশালী মডেলগুলো কোনো জাদুকরী জিনিস নয় যা সাধারণ নিয়মের ঊর্ধ্বে। এগুলো মানুষ দিয়ে তৈরি, সার্ভারে সংরক্ষিত, কোডের মাধ্যমে পরিচালিত এবং প্রযুক্তির অন্যান্য অংশের মতোই দুর্বল। অ্যানথ্রপিকের মতো কোনো কোম্পানির সোর্স কোড ফাঁস হওয়াটা গুরুত্বপূর্ণ, কারণ এটি নিখুঁত নিয়ন্ত্রণের भ्रमটা ভেঙে দেয় না, বরং এটি আমাদের মনে করিয়ে দেয় যে নিখুঁত নিয়ন্ত্রণ বলে আসলে কিছুই ছিল না। সাধারণ মানুষের এই বিষয়টি গুরুত্ব সহকারে নেওয়া উচিত এবং পরবর্তী অপরিহার্য যান্ত্রিক মস্তিষ্ক তৈরির দৌড়ে থাকা প্রতিটি কোম্পানিরও তাই করা উচিত।

Publication

The World Dispatch

Source: Editorial Desk

Category: AI