মো. রিশাদ আহমেদ

মানুষ যখন প্রথম আগুন জ্বালাতে শিখেছিল, তখন আগুন তাকে আলো দিয়েছিল, উষ্ণতা দিয়েছিল, আবার একই আগুন অসচেতনতায় তার বসতি পুড়িয়ে ছারখারও করেছিল। প্রযুক্তির ইতিহাসে প্রতিটি বড় আবিষ্কারই যেমন সুযোগ এনেছে, তেমনি এনেছে বিপদ। জেনারেটিভ কৃত্রিম বুদ্ধিমত্তা বা সংক্ষেপে জেনারেটিভ এআই আজ অনেকটা আগুনের মতো। এটি আমাদের কাজকে দ্রুততর করছে, জ্ঞানকে সহজলভ্য করছে, এমনকি সৃজনশীলতাকে নতুন মাত্রা দিচ্ছে। কিন্তু এরই সঙ্গে তৈরি হয়েছে অজস্র নিরাপত্তা ঝুঁকি, যা উপেক্ষা করলে পুরো সমাজকে ভোগান্তিতে ফেলতে পারে।

আজকের দিনে এআই আর কেবল গবেষণাগারের পরীক্ষার জিনিস নয়। অফিসে রিপোর্ট লেখা, চিকিৎসকের রোগ নির্ণয়ে সাহায্য করা, ছবি বা ভিডিও সম্পাদনা, এমনকি স্কুল-কলেজের শিক্ষার্থীদের পড়াশোনায়ও এটি ব্যবহার হচ্ছে। বিশেষ করে জেনারেটিভ এআই মানুষকে লেখালেখি, ছবি আঁকা, প্রোগ্রাম লেখা কিংবা কণ্ঠস্বর অনুকরণ পর্যন্ত সাহায্য করছে। এ কারণেই বলা হচ্ছে, ভবিষ্যতের ডিজিটাল দুনিয়ার চালিকাশক্তি হবে এআই। কিন্তু এ সুবিধার আড়ালেই লুকিয়ে আছে নানা জটিলতা। কারণ এআই শুধু সহায়ক নয়, অসৎ মানুষের হাতে পড়লে এটি পরিণত হতে পারে ভয়ঙ্কর অস্ত্রে।

সাম্প্রতিক বছরগুলোতে ঘটে যাওয়া কিছু ঘটনা সে ভয়কে আরও বাস্তব করে তুলেছে। দু’বছর আগে চ্যাটজিপিটি প্ল্যাটফর্মে এক বড় ধরনের তথ্য ফাঁসের ঘটনা ঘটেছিল। একটি তৃতীয় পক্ষের ওপেন সোর্স লাইব্রেরির দুর্বলতার কারণে কিছু ব্যবহারকারীর নাম, ই-মেইল, আংশিক অর্থ প্রদান সংক্রান্ত তথ্য এবং ব্যক্তিগত চ্যাট ইতিহাস প্রকাশ্যে চলে আসে। এ ঘটনা দেখিয়ে দেয়, একটি বড় প্রযুক্তি কোম্পানির নিরাপত্তা আসলে যতটা শক্তিশালী মনে হয়, সেটি নির্ভর করে তার সবচেয়ে দুর্বল কড়ির ওপর। একটিমাত্র ছোট ত্রুটি পুরো ব্যবস্থাকে ভেঙে দিতে পারে।

আরেকটি আলোচিত ঘটনার নাম শ্যাডোলিক। এটি ছিল এক ধরনের ‘শূন্য-ক্লিক আক্রমণ’। ব্যবহারকারীর কোনো ধরনের মিথস্ক্রিয়া ছাড়াই কৃত্রিম বুদ্ধিমত্তা এজেন্টকে গোপনে নির্দেশ দেওয়া হয়েছিল, যাতে এটি ব্যবহারকারীর জিমেইল থেকে তথ্য সংগ্রহ করে গবেষকদের কাছে পাঠায়। ব্যবহারকারীর ডিভাইসে কোনো চিহ্ন না রেখেই এভাবে আক্রমণ চালানো হয়েছিল। বোঝাই যায়, এই ধরনের আক্রমণ শনাক্ত করা প্রায় অসম্ভব।

শুধু বড় প্ল্যাটফর্মই নয়, তুলনামূলক ছোট আকারের কৃত্রিম বুদ্ধিমত্তা পরিষেবাগুলোতেও দুর্বলতা দেখা গেছে। উদাহরণস্বরূপ, একটি জনপ্রিয় অ্যাপ রিপেয়ারআইটি-তে হার্ডকোড করা পাসওয়ার্ড এবং অসুরক্ষিত ক্লাউড স্টোরেজ ব্যবহারের কারণে ব্যবহারকারীর ব্যক্তিগত ছবি ও সংবেদনশীল কোড ফাঁস হয়েছিল। আবার অনেক ওপেন সোর্স চ্যাটবট ভুল কনফিগারেশনের কারণে ব্যবহারকারীর ব্যক্তিগত কথোপকথন প্রকাশ্যে চলে এসেছে। এসব উদাহরণ প্রমাণ করে যে কৃত্রিম বুদ্ধিমত্তা ব্যবহারের ক্ষেত্র যত বাড়ছে, এর ঝুঁকিও বহুগুণে বৃদ্ধি পাচ্ছে।

এদিকে গুগল জেমিনি নামের কৃত্রিম বুদ্ধিমত্তা প্ল্যাটফর্ম কিছুটা ভিন্ন দিকও দেখিয়েছে। উন্নতমানের সরকার-সমর্থিত হ্যাকাররা যখন এ প্রযুক্তি ব্যবহার করে ক্ষতিকর সফটওয়্যার বানাতে চেয়েছিল, তখন জেমিনি তাদের অনুরোধ প্রত্যাখ্যান করেছে এবং নিরাপত্তা ফিল্টার করা উত্তর দিয়েছে। এটি প্রমাণ করে যে, সঠিকভাবে নিরাপত্তা ব্যবস্থা তৈরি করা গেলে অনেক আক্রমণ রোধ করা সম্ভব। তবে এখানেও বিতর্ক রয়ে গেছে। কারণ ব্যবহারকারীর চ্যাট ইতিহাস মানব পর্যালোচকদের দ্বারা তিন বছর পর্যন্ত সংরক্ষণ করা হয়। ফলে গোপনীয়তার প্রশ্ন থেকে যায়।

কেন এমন পরিস্থিতি তৈরি হচ্ছে, তার পেছনে বেশ কিছু কারণ রয়েছে। প্রথমত, এআই প্ল্যাটফর্মগুলো সাধারণত অসংখ্য ওপেন সোর্স লাইব্রেরি ও তৃতীয় পক্ষের নির্ভরশীলতা ব্যবহার করে। এগুলোর যেকোনো একটি দুর্বল হলেই পুরো সিস্টেম আক্রান্ত হতে পারে। দ্বিতীয়ত, এআই এখনো অপেক্ষাকৃত নতুন প্রযুক্তি। প্রতিদিন নতুন ধরনের দুর্বলতা ও আক্রমণের কৌশল বের হচ্ছে, যেগুলো প্রতিরোধের ব্যবস্থা অনেক সময় আগে থেকে থাকে না। তৃতীয়ত, সাধারণ ব্যবহারকারীরা অজান্তেই ব্যক্তিগত বা সংবেদনশীল তথ্য কৃত্রিম বুদ্ধিমত্তার সঙ্গে ভাগ করে নিচ্ছেন। পরবর্তীতে এসব তথ্য অপব্যবহার হচ্ছে। চতুর্থত, সমাজে অসৎ উদ্দেশ্যে এআই ব্যবহারও বেড়ে গেছে। মিথ্যা প্রচারণা, প্রতারণামূলক ই-মেইল কিংবা নকল ভিডিও বানিয়ে মানুষের মধ্যে বিভ্রান্তি ছড়ানো হচ্ছে। সবশেষে বলতে হয়, অনেক কোম্পানি তাদের তথ্য নীতি স্বচ্ছভাবে জানায় না। ব্যবহারকারীরা জানতেই পারেন না, তাদের তথ্য কতদিন রাখা হচ্ছে বা কীভাবে ব্যবহৃত হচ্ছে।

এ সংকট সমাধানে কয়েকটি পদক্ষেপ জরুরি। কোম্পানিগুলোকে তাদের ডেটা নীতি স্পষ্টভাবে প্রকাশ করতে হবে। নিয়মিত নিরাপত্তা পরীক্ষা চালানো, পুরস্কারভিত্তিক বাগ শিকার কর্মসূচি শুরু করা এবং তথ্য সংরক্ষণের সময়সীমা সীমিত করা দরকার। প্রতিষ্ঠানগুলোকেও সতর্ক হতে হবে। কর্মীদের জন্য সাইবার নিরাপত্তা প্রশিক্ষণ দেওয়া, সংবেদনশীল কাজে এআই ব্যবহার নিয়ন্ত্রণ করা এবং “শ্যাডো আইটি” ঝুঁকি শনাক্ত করা প্রয়োজন। একইভাবে ব্যক্তিগত পর্যায়ে ব্যবহারকারীদের সচেতন হতে হবে। তারা যেন কৃত্রিম বুদ্ধিমত্তার কাছে ব্যক্তিগত বা আর্থিক তথ্য না দেন এবং প্ল্যাটফর্মের নীতিমালা ভালোভাবে পড়ে নেন। পাশাপাশি ভুয়া তথ্য বা প্রতারণামূলক কনটেন্ট চিনে ফেলার অভ্যাস গড়ে তুলতে হবে।

অবশেষে বলতে হয়, জেনারেটিভ কৃত্রিম বুদ্ধিমত্তা একদিকে যেমন সুযোগ, অন্যদিকে তা বিপদের কারণও। মানব ইতিহাসে প্রতিটি বড় আবিষ্কারের সঙ্গে দ্বিমুখী ঝুঁকি থেকেছে। এখন আমাদের ঠিক করতে হবে, আমরা এআইকে আগুনের মতো ব্যবহার করব-যেখানে আলো থাকবে, উষ্ণতা থাকবে, উন্নতি থাকবে, নাকি অসাবধানতায় সেটিকে অগ্নিকাণ্ডে পরিণত করব। কোম্পানি, সরকার, প্রতিষ্ঠান আর সাধারণ ব্যবহারকারী-সবাইকে মিলেই এ প্রযুক্তিকে সঠিক পথে চালিত করতে হবে। কারণ একটাই, এআই আমাদের ভবিষ্যতের সঙ্গী; কিন্তু এর নিরাপত্তা নিশ্চিত করা ছাড়া সে ভবিষ্যত আলোয় নয়, অন্ধকারেই ঢেকে যাবে।

লেখক : শিক্ষার্থী, জগন্নাথ বিশ্ববিদ্যালয়