এআই এবং এর ‘হ্যালুসিনেশন’
অ-লাভজনক প্রতিষ্ঠান হিসেবে শুরু করা ওপেনএআই এখন প্রায় ৫০০ বিলিয়ন ডলার মূল্যের একটি কোম্পানি। কিন্তু এত বড় রূপান্তরের মধ্যেও তাদের মূল প্রযুক্তি 'চ্যাটজিপিটি'র একটি পুরোনো সমস্যা এখনো পুরোপুরি সমাধান হয়নি: 'হ্যালুসিনেশন' বা ভুল তথ্য তৈরি করা। ওপেনএআইয়ের মতো ভাষা মডেলগুলো বা এলএলএম অনেক সময় আত্মবিশ্বাসের সঙ্গে এমন তথ্য বলে বসে, যা আসলে ভুল।
আগে মনে করা হতো, এসব ভুলের কারণ খারাপ বা অসম্পূর্ণ ডেটা। কিন্তু গত মাসে প্রকাশিত এক প্রি-প্রিন্ট গবেষণায় ওপেনএআই ও জর্জিয়া ইনস্টিটিউট অব টেকনোলজি'র একটি গবেষক দল দেখিয়েছে, এমনকি নিখুঁত প্রশিক্ষণ ডেটা দিয়েও এসব মডেল কখনো সবকিছু জানে না। কারণ, কিছু প্রশ্ন নিজেই এমন, যেগুলোর উত্তর আসলে অজানাই থেকে যায়।
গবেষকদের মতে, সমস্যার মূল উৎসটা লুকিয়ে আছে ভাষা মডেলের প্রশিক্ষণ প্রক্রিয়ার মধ্যেই। এই মডেলগুলো শিখে নেয় কীভাবে 'ব্লাফ' বা আত্মবিশ্বাসী ভঙ্গিতে ভুল তথ্য বলা যায়। কারণ, তাদের দক্ষতা যাচাই করা হয় এমন কিছু মানক পরীক্ষার মাধ্যমে, যেখানে আত্মবিশ্বাসী অনুমানকে পুরস্কৃত করা হয় আর সৎভাবে 'আমি জানি না' বলা হলে বরং শাস্তি মেলে।
যদিও অনেক বিশেষজ্ঞ এই নতুন গবেষণাপত্রটিকে প্রযুক্তিগতভাবে শক্তিশালী মনে করছেন, তবে এর প্রস্তাবিত সমাধান নিয়ে মতভেদ দেখা গেছে। কেউ কেউ প্রশ্ন তুলেছেন, ওপেনএআই আসলে কতটা এগোবে নিজের মডেলগুলোকে সত্যনিষ্ঠ করার পথে, যখন তাদের বর্তমান সাফল্য মূলত ব্যবহারকারীর সম্পৃক্ততার ওপর নির্ভর করে।
বাস্তবতা হলো, যদি চ্যাটজিপিটি প্রতিবার বলতে থাকে, 'আমি জানি না', তাহলে অনেক ব্যবহারকারী হয়তো অন্য জায়গায় উত্তর খুঁজতে চলে যাবেন। আর সেটি ওপেনএআইয়ের জন্য বড় চ্যালেঞ্জ হতে পারে, একটি প্রতিষ্ঠান হিসেবে যারা এখনো ব্যবহারকারী বাড়ানো ও লাভজনক হওয়ার চেষ্টা করছে।
শেফিল্ড বিশ্ববিদ্যালয়ের কৃত্রিম বুদ্ধিমত্তা গবেষক ওয়েই জিং এ প্রসঙ্গে বলেন, 'হ্যালুসিনেশন বন্ধ করা মানেই পণ্যটাকেই মেরে ফেলা'। এই প্রাথমিক পর্যায়ের মডেলটি ব্যাকরণ বা বানানের মতো সহজ নিয়মভিত্তিক বিষয়গুলো খুব দক্ষভাবে সামলাতে পারে। কিন্তু যখন তাকে জটিল বা তথ্যনির্ভর প্রশ্ন করা হয়, তখন এটি সহজেই ভুল পথে চলে যেতে পারে।
কোনো ভাষা মডেল যখন লেখা তৈরি করে, তখন মডেলগুলো সবসময় কিছু না কিছু ভুল করবে। কারণ কিছু প্রশ্ন এমনভাবে তৈরি, যা নিজেই জটিল বা যার কোনো সাধারণ উত্তরই নেই। অন্যদিকে, কেউ কেউ আশঙ্কা করছেন, ভালো উদ্দেশ্যে নেওয়া সমাধানগুলোও উল্টো ফল দিতে পারে।
ইলিনয় বিশ্ববিদ্যালয়, আর্বানা-শ্যাম্পেইনের কম্পিউটার বিজ্ঞানী হাও পেং সতর্ক করে বলেছেন, মডেলকে 'আমি জানি না' বলার জন্য উৎসাহিত করা হলেও তা তার আচরণকে অপ্রত্যাশিতভাবে বিকৃত করতে পারে। যেমন এখনকার মানক পরীক্ষাগুলো মডেলকে আত্মবিশ্বাসী ভুল তথ্য দিতে প্রলুব্ধ করে, তেমনই নতুন নীতিও হয়তো অন্য ধরনের বিকৃতি তৈরি করতে পারে।


Comments