AI কোড ফাঁস হলে বিপদ শুধু কোম্পানির নয়
১ এপ্রিল, ২০২৬

“সোর্স কোড ফাঁস” কথাটি শুনলে বেশিরভাগ মানুষ মনে করেন এটি কোনো কোম্পানির জন্য লজ্জার বিষয়, বাণিজ্যিক গোপনীয়তা হারানো বা প্রতিদ্বন্দ্বীদের মধ্যে আইনি লড়াইয়ের ব্যাপার। কিন্তু এই ধারণাটি সংকীর্ণ। আর্টিফিশিয়াল ইন্টেলিজেন্স বা AI-এর ক্ষেত্রে, কোড ফাঁসের অর্থ আরও বড় কিছু হতে পারে। এর মাধ্যমে একটি শক্তিশালী মডেল কীভাবে কাজ করবে, তার জন্য তৈরি করা গোপন নির্দেশাবলী, নিরাপত্তা ব্যবস্থা এবং অভ্যন্তরীণ টুলগুলো প্রকাশ্যে চলে আসতে পারে। অ্যানথ্রপিকের মতো কোনো বড় AI কোম্পানির কোড ফাঁস হলে, বিষয়টি শুধু মেধাস্বত্ব নিয়েই সীমাবদ্ধ থাকবে না। বরং এটি আরও কঠিন প্রশ্ন তুলবে যে, আজকের সবচেয়ে প্রভাবশালী AI সিস্টেমগুলোকে গুরুত্বপূর্ণ ডিজিটাল পরিকাঠামোর মতো গুরুত্ব দিয়ে রক্ষা করা হচ্ছে কি না।
এই উদ্বেগ কোনো কল্পনা নয়। আধুনিক AI সিস্টেমে একটি চ্যাট ইন্টারফেসের চেয়েও অনেক বেশি কিছু থাকে। কোম্পানিগুলো মডেল ওয়েটস, ফাইন-টিউনিং পদ্ধতি, সিস্টেম প্রম্পট, কন্টেন্ট ফিল্টার, রিট্রিভাল পাইপলাইন, মূল্যায়ন টুল এবং অভ্যন্তরীণ ড্যাশবোর্ডের ওপর ভিত্তি করে সিস্টেম তৈরি করে। এর কিছু অংশ হয়তো প্রচলিত কোড রিপোজিটরিতে কখনোই থাকে না। কিন্তু যেখানে থাকে, সেই কোড ফাঁস হলে একটি মডেলের ভেতরের দুর্বলতাগুলো বেরিয়ে আসতে পারে। অথচ লেখা, কোডিং, সার্চ, কাস্টমার সার্ভিস এবং ব্যবসায়িক সিদ্ধান্তের জন্য লক্ষ লক্ষ মানুষ সেই মডেলের ওপর নির্ভর করে। এমন একটি খাতে, যেখানে जनताকে অদৃশ্য নিরাপত্তা ব্যবস্থার ওপর বিশ্বাস করতে বলা হয়, সেখানে আংশিক তথ্য ফাঁস হওয়াও অনেক বড় ব্যাপার।
বিগত কয়েক বছরে দেখা গেছে, দ্রুত পরিবর্তনশীল AI সিস্টেমের ক্ষেত্রে এই ধরনের ফাঁস কতটা ক্ষতিকর হতে পারে। ২০২৩ সালে, গুগলের কিছু অভ্যন্তরীণ নথি অনলাইনে ফাঁস হয়। এর ফলে বিশ্বের অন্যতম বৃহৎ প্রযুক্তি সংস্থাটি ওপেন-সোর্স AI প্রতিযোগিতা নিয়ে কীভাবে ভাবছে, সে সম্পর্কে বাইরের লোকেরা স্পষ্ট ধারণা পায়। প্রায় একই সময়ে, মেটা-র LLaMA মডেলের ওয়েটস নির্দিষ্ট ব্যবহারকারীদের বাইরে ব্যাপকভাবে ছড়িয়ে পড়ে, যা এই ক্ষেত্রে পরীক্ষানিরীক্ষাকে আরও দ্রুত করে দেয়। এর সমর্থকরা বলেন, এটি গবেষণায় সাহায্য করেছে। সমালোচকদের মতে, এর ফলে উন্নত প্রযুক্তি নকল করা, নিজের মতো করে বদলানো এবং অপব্যবহার করা সহজ হয়ে গেছে। মূল কথা হলো, সব ফাঁস একরকম নয়। তবে AI ফাঁস হলে তার প্রভাব শুধু একটি কোম্পানির লাভ-ক্ষতির মধ্যেই সীমাবদ্ধ থাকে না।
সাইবার নিরাপত্তার তথ্যও উদ্বেগজনক। IBM-এর ২০২৪ সালের ‘কস্ট অফ এ ডেটা ব্রিচ’ রিপোর্ট অনুযায়ী, বিশ্বব্যাপী একটি ডেটা ব্রিচের গড় খরচ সর্বকালের সর্বোচ্চ ৪.৮৮ মিলিয়ন ডলারে পৌঁছেছে। এই পরিসংখ্যানটি সমস্ত ব্যবসার ক্ষতির হিসাব, শুধু AI কোম্পানির নয়। কিন্তু AI সংস্থাগুলোর ক্ষেত্রে ঝুঁকির একটি অতিরিক্ত স্তর রয়েছে, কারণ তাদের পণ্যগুলো প্রায়শই অন্যান্য পরিষেবার ভেতরে যুক্ত থাকে। কোনো একটি মডেল প্রদানকারী সংস্থার দুর্বলতার প্রভাব এপিআই-এর মাধ্যমে সেই মডেল ব্যবহারকারী আইন সংস্থা, হাসপাতাল, স্কুল, সফটওয়্যার টিম এবং সরকারি কন্ট্রাক্টরদের ওপরও পড়তে পারে। একটি নিরাপত্তা সংক্রান্ত ঘটনা থেকে অনেক বড় সমস্যা তৈরি হতে পারে।
এর পেছনের কারণটি সহজ কিন্তু অস্বস্তিকর। AI কোম্পানিগুলো খুব দ্রুত এগোতে চায়, কারণ বাজার গতিকে পুরস্কৃত করে। নতুন মডেল বাজারে আসা মানেই কোম্পানির মূল্যায়ন বদলে যাওয়া, বড় বড় চুক্তি পাওয়া এবং一夜ারাতি মানুষের ধারণা পরিবর্তন হওয়া। নিরাপত্তা এবং অভ্যন্তরীণ অ্যাক্সেস কন্ট্রোলের মতো বিষয়গুলো প্রায়শই ধীরগতিতে উন্নত হয়। প্রযুক্তির জগতে এই অসামঞ্জস্য নতুন কিছু নয়, কিন্তু AI-এর ক্ষেত্রে এটি আরও প্রকট। কারণ এখানে বিশাল আকারের টিম ক্লাউড টুলস, শেয়ারড রিপোজিটরি, থার্ড-পার্টি ইন্টিগ্রেশন এবং কন্ট্রাক্টর ব্যবহার করে কাজ করে। প্রতিটি অতিরিক্ত স্তর একটি নতুন দুর্বলতার কারণ হতে পারে। সহজ কথায়, যে ব্যবস্থাটি কোম্পানিগুলোকে অত্যাধুনিক সিস্টেম তৈরি করতে সাহায্য করে, সেই ব্যবস্থাই সংবেদনশীল কোড বা কনফিগারেশন डिटेल्स ভুল জায়গায় ছড়িয়ে পড়ার ঝুঁকি তৈরি করে।
এখানে একটি সাংস্কৃতিক সমস্যাও রয়েছে। AI শিল্প বছরের পর বছর ধরে নিজেদের উন্মুক্ততা, অগ্রগতি এবং দ্রুত নতুন সংস্করণ আনার মতো বিষয়গুলোকে গুরুত্ব দিয়ে এসেছে। এই মূল্যবোধগুলো গবেষণাকে এগিয়ে নিতে সাহায্য করেছে। কিন্তু এর ফলে সুস্থ তথ্য আদান-প্রদান এবং বিপজ্জনক তথ্য ফাঁসের মধ্যেকার সীমারেখা অস্পষ্ট হয়ে গেছে। অ্যাকাডেমিক মেশিন লার্নিং দীর্ঘদিন ধরেই পদ্ধতি, বেঞ্চমার্ক এবং কোড প্রকাশের ওপর নির্ভরশীল ছিল। কিন্তু বাণিজ্যিক AI এখন আর শুধু একটি অ্যাকাডেমিক প্রকল্প নয়। এটি একটি উচ্চ ঝুঁকির শিল্প, যার পণ্যগুলো আর্থিক পরামর্শ, আইনি খসড়া, শিক্ষা এবং রাজনৈতিক তথ্যের মতো বিষয়কে প্রভাবিত করে। গবেষণার সেই উন্মুক্ত যুগের নিরাপত্তার অভ্যাসগুলো এই নতুন বাস্তবতার সঙ্গে সবসময় খাপ খায় না।
অ্যানথ্রপিকের মতো কোনো কোম্পানির সোর্স কোড ফাঁস হলে, প্রথম ভয় হবে মডেলটি ক্লোন বা নকল হওয়ার। এটি একটি বাস্তব ঝুঁকি। কিন্তু এর চেয়েও বড় ঝুঁকি হলো, খারাপ উদ্দেশ্য থাকা ব্যক্তি বা গোষ্ঠী ফাঁস হওয়া তথ্য ব্যবহার করে এর নিরাপত্তা ব্যবস্থা বা গার্ডরেইলগুলো সম্পর্কে জানতে পারবে এবং সেগুলোকে পাশ কাটিয়ে যাওয়ার উপায় বের করে ফেলবে। নিরাপত্তা ব্যবস্থাগুলো সাধারণত বিভিন্ন স্তরে কাজ করে: একটি প্রম্পট ক্ষতিকারক অনুরোধগুলোকে আটকায়, অন্য একটি ক্লাসিফায়ার ঝুঁকিপূর্ণ আউটপুট শনাক্ত করে, আবার কোনো অভ্যন্তরীণ নিয়ম ঠিক করে দেয় যে মডেলটি জটিল পরিস্থিতিতে কীভাবে কাজ করবে। যদি এই স্তরগুলোর গঠন বোঝা সহজ হয়ে যায়, তবে আক্রমণকারীরা একটি নির্দেশিকা পেয়ে যায়। এটি কোনো কাল্পনিক ধারণা নয়। নিরাপত্তা গবেষকরা বারবার দেখিয়েছেন যে, মডেলগুলোকে বিশেষ ধরনের প্রম্পট দিয়ে “জেলব্রেক” করা যায় এবং পাবলিক প্রম্পট-শেয়ারিং কমিউনিটিগুলোতে ঠিক এই কাজ করার পদ্ধতি আদান-প্রদান করা হয়েছে।
এর সামাজিক প্রভাবও সমান গুরুতর। AI-এর ওপর মানুষের আস্থা এমনিতেই ভঙ্গুর। এডলম্যান ট্রাস্ট ব্যারোমিটার এবং পিউ রিসার্চ সেন্টারের সমীক্ষায় দেখা গেছে যে, AI-এর প্রভাব নিয়ে সাধারণ মানুষের মধ্যে কাজ, ভুল তথ্য এবং নিরাপত্তা নিয়ে ব্যাপক উদ্বেগ রয়েছে। মার্কিন যুক্তরাষ্ট্রে, পিউ ২০২৪ সালে রিপোর্ট করেছে যে দৈনন্দিন জীবনে AI-এর ক্রমবর্ধমান ব্যবহার নিয়ে উচ্ছ্বসিত মানুষের চেয়ে উদ্বিগ্ন মানুষের সংখ্যা বেশি। একটি বড় ধরনের কোড ফাঁসের ঘটনা এই সন্দেহকে আরও গভীর করবে। এটি প্রমাণ করবে যে, যে কোম্পানিগুলো স্কুল, হাসপাতাল এবং সরকারি সংস্থাগুলোকে বড় আকারে AI ব্যবহার করতে বলছে, তারা হয়তো নিজেদের সিস্টেমের প্রাথমিক তত্ত্বাবধান করতেই হিমশিম খাচ্ছে।
এর অর্থনৈতিক পরিণতিও ব্যাপক হতে পারে। যে ব্যবসাগুলো কোনো AI পরিষেবা প্রদানকারীকে বেছে নেয়, তারা শুধু একটি উন্নত সফটওয়্যার কেনে না। তারা নির্ভরযোগ্যতা, নিয়ম মেনে চলা এবং পরিষেবার ধারাবাহিকতার ওপর বাজি ধরে। যদি ফাঁস হওয়া কোড দুর্বল সুরক্ষা ব্যবস্থার কথা প্রকাশ করে, তবে নিয়ন্ত্রিত খাতগুলোতে থাকা ক্লায়েন্টরা তাদের পরিকল্পনা পুনর্বিবেচনা করতে বা ধীর করে দিতে পারে। এটি গুরুত্বপূর্ণ কারণ বড় সংস্থাগুলোর বিনিয়োগই এখন AI ব্যবসায়িক মডেলের কেন্দ্রবিন্দু। জেনারেটিভ AI ব্যবহার নিয়ে ম্যাককিনজির সাম্প্রতিক সমীক্ষায় দেখা গেছে, কোম্পানিগুলো এখন পরীক্ষামূলক ব্যবহার থেকে বেরিয়ে মার্কেটিং, সফটওয়্যার এবং কাস্টমার অপারেশনের মতো ক্ষেত্রে এর গভীর ব্যবহার শুরু করেছে। এই বিনিয়োগগুলো নির্ভর করে এই বিশ্বাসের ওপর যে, পরিষেবা প্রদানকারীরা শুধু ব্যবহারকারীর ডেটাই নয়, বরং তাদের সিস্টেমগুলোকেও রক্ষা করতে সক্ষম।
এর একটি নীতিগত দিকও রয়েছে। মার্কিন যুক্তরাষ্ট্র, ইউরোপীয় ইউনিয়ন এবং যুক্তরাজ্যের সরকারগুলো অত্যাধুনিক AI-এর নিরাপত্তা এবং পরিচালনা নিয়ে কঠিন প্রশ্ন তুলতে শুরু করেছে। একটি বড় ধরনের ফাঁসের ঘটনা নিয়ন্ত্রক সংস্থাগুলোকে শীর্ষস্থানীয় AI সংস্থাগুলোকে সাধারণ সফটওয়্যার বিক্রেতার পরিবর্তে সংবেদনশীল পরিকাঠামো অপারেটর হিসেবে বিবেচনা করতে বাধ্য করতে পারে। এর অর্থ হতে পারে আরও কঠোর রিপোর্টিং নিয়ম, বাইরের অডিট, অভ্যন্তরীণ ঝুঁকি মোকাবিলার জন্য শক্তিশালী নিয়ন্ত্রণ এবং আরও আনুষ্ঠানিক রেড-টিম টেস্টিং। শিল্পের কেউ কেউ এই ধারণার বিরোধিতা করে বলেন যে, কঠোর নিয়ম উদ্ভাবনকে ধীর করে দিতে পারে। কিন্তু ডিজিটাল বাজারের ইতিহাস এর বিপরীত শিক্ষা দেয়: যখন ব্যবহারকারীরা বিশ্বাস করে যে ন্যূনতম সুরক্ষা ব্যবস্থা বাস্তব, তখনই আস্থা এবং ব্যবহার বৃদ্ধি পায়।
এর বুদ্ধিমানের মতো প্রতিক্রিয়া আতঙ্কিত হওয়া নয়, বরং পরিণত হওয়া। AI সংস্থাগুলোর উচিত উচ্চ-ঝুঁকিপূর্ণ সিস্টেমে অভ্যন্তরীণ অ্যাক্সেস সীমিত করা, গবেষণার পরিবেশকে প্রোডাকশন সিস্টেম থেকে আলাদা রাখা, আরও শক্তিশালী কোড সাইনিং ও মনিটরিং ব্যবহার করা এবং নিয়মিত অভ্যন্তরীণ ঝুঁকি পর্যালোচনা করা। স্বাধীন নিরাপত্তা অডিটকে ব্যতিক্রমী না ভেবে স্বাভাবিক হিসেবে গ্রহণ করা উচিত। বড় গ্রাহকদেরও উচিত AI কেনাকে একটি সাধারণ সফটওয়্যার কেনার মতো না দেখা। তাদের পরিষেবা প্রদানকারীদের রিপোজিটরি নিরাপত্তা, ঘটনা মোকাবিলার প্রস্তুতি, কন্ট্রাক্টরদের অ্যাক্সেস এবং মডেলের নিরাপত্তা ব্যবস্থা পরীক্ষা করার বিষয়ে সরাসরি প্রশ্ন করা উচিত। বোর্ড এবং কর্মকর্তাদের বুঝতে হবে যে AI-এর ঝুঁকি শুধু খারাপ আউটপুটের মধ্যে সীমাবদ্ধ নয়, বরং যে গোপন যন্ত্রগুলো এগুলো তৈরি করে, তার মধ্যেও ঝুঁকি লুকিয়ে থাকে।
গভীর শিক্ষাটি হলো এমন একটি বিষয়, যা AI শিল্প এখনও মেনে নিতে চায় না। শক্তিশালী মডেলগুলো কোনো জাদুকরী জিনিস নয় যা সাধারণ নিয়মের ঊর্ধ্বে। এগুলো মানুষ দিয়ে তৈরি, সার্ভারে সংরক্ষিত, কোডের মাধ্যমে পরিচালিত এবং প্রযুক্তির অন্যান্য অংশের মতোই দুর্বল। অ্যানথ্রপিকের মতো কোনো কোম্পানির সোর্স কোড ফাঁস হওয়াটা গুরুত্বপূর্ণ, কারণ এটি নিখুঁত নিয়ন্ত্রণের भ्रमটা ভেঙে দেয় না, বরং এটি আমাদের মনে করিয়ে দেয় যে নিখুঁত নিয়ন্ত্রণ বলে আসলে কিছুই ছিল না। সাধারণ মানুষের এই বিষয়টি গুরুত্ব সহকারে নেওয়া উচিত এবং পরবর্তী অপরিহার্য যান্ত্রিক মস্তিষ্ক তৈরির দৌড়ে থাকা প্রতিটি কোম্পানিরও তাই করা উচিত।