চ্যাটজিপিটির মতো বিভিন্ন কৃত্রিম বুদ্ধিমত্তা বা এআই টুল বিশ্বাস আর তথ্যের মধ্যে পার্থক্য করতে সমস্যায় পড়ে বলে উঠে এসেছে নতুন এক গবেষণায়। যুক্তরাষ্ট্রের ‘স্ট্যানফোর্ড ইউনিভার্সিটি’র গবেষণা দলটি বলছে, বড় ধরনের সব এআই চ্যাটবটই বুঝতে পারে না কোনটা সত্য তথ্য আর কোনটা কেবল মানুষের বিশ্বাস বা ধারণা। ফলে এসব চ্যাটবটের মাধ্যমে ভুল তথ্য বা ভ্রান্ত ধারণা ছড়িয়ে পড়ার ঝুঁকি রয়েছে। এ গবেষণার ফলাফল নিয়ে উদ্বেগের কারণ হচ্ছে, যেখানে সত্য আর মিথ্যা তথ্য আলাদা করার বিষয়টি গুরুত্বপূর্ণ, সেখানে লার্জ ল্যাঙ্গুয়েজ মডেল বা এআইয়ের ব্যবহার ঝুঁকিপূর্ণ হতে পারে বলে প্রতিবেদনে লিখেছে ব্রিটিশ দৈনিক ইন্ডিপেনডেন্ট। গবেষকরা বলেছেন, ‘বিভিন্ন এআই চ্যাটবট যখন আইন, চিকিৎসা, সাংবাদিকতা আর বিজ্ঞানের মতো গুরুত্বপূর্ণ ক্ষেত্রে ব্যবহৃত হচ্ছে তখন এদের পক্ষে বিশ্বাস আর জ্ঞান ও সত্য আর কল্পনার মধ্যে পার্থক্য করতে পারা খুবই জরুরি হয়ে পড়েছে। ‘এমন পার্থক্য করতে না পারলে তা রোগ নির্ণয়ে ভুল, বিচারিক সিদ্ধান্তের ওপর প্রভাব এবং আরও বেশি পরিমাণে ভুল তথ্য ছড়িয়ে দিতে পারে এআই।’ এ গবেষণায় ক্লড, চ্যাটজিপিটি, ডিপসিক ও জেমিনাইসহ মোট ২৪টি লার্জ ল্যাঙ্গুয়েজ মডেল নিয়ে পরীক্ষা করেছেন গবেষকরা। এসব মডেল কতটা ভালোভাবে বিশ্বাস, জ্ঞান ও বাস্তব তথ্যের মধ্যে পার্থক্য করতে পারে তা পরীক্ষা করতে প্রায় ১৩ হাজারটি প্রশ্ন ব্যবহার করেছেন তারা।
পরীক্ষিত সকল মডেলই বিশ্বাস বা ভুল বিবৃতি শনাক্ত করতে পারেনি। এর থেকে ইঙ্গিত মেলে, এসব মডেলের মধ্যে জ্ঞানকে সত্যের সঙ্গে সঠিকভাবে যোগ করার সক্ষমতায় মৌলিক সীমাবদ্ধতা রয়েছে।
গবেষণায় অংশ না নেওয়া মাদ্রিদের ‘অটোনোমাস ইউনিভার্সিটি’র কম্পিউটার ভাষাতত্ত্ব গবেষণাগারের গবেষক পাবলো হায়া কোল বলেছেন, ‘গবেষণার এসব ফলাফল বিভিন্ন লার্জ ল্যাঙ্গুয়েজ মডেলের গাঠনিক দুর্বলতারই প্রকাশ, যেখানে কোনো বক্তব্য বা বিবৃতি কীভাবে উপস্থাপিত হয়েছে এর ওপর নির্ভর করে ব্যক্তিগত বিশ্বাস আর বস্তুনিষ্ঠ সত্যের মধ্যে পার্থক্য করতে সমস্যায় পড়ে এআই। ‘এ ধরনের সীমাবদ্ধতা গুরুত্বপূর্ণ ক্ষেত্রে গুরুতর প্রভাব ফেলতে পারে। যেমনÑ আইন, চিকিৎসা বা সাংবাদিকতার মতো বিষয়ে, যেখানে বিশ্বাসকে জ্ঞানের সঙ্গে বিভ্রান্ত করলে গুরুতর ভুল সিদ্ধান্ত নেওয়া হতে পারে।’
ড. কোল বলেছেন, এ সীমাবদ্ধতার সমাধান হতে পারে উত্তর দেওয়ার ক্ষেত্রে আরও সাবধানতা অবলম্বনের প্রশিক্ষণ দিতে হবে এসব মডেলকে। এতে ভুল বা বানানো তথ্য দেওয়ার আশঙ্কা কমবে, তবে, মডেলের ব্যবহারিক উপকারিতা কিছুটা প্রভাবিত হতে পারে।
স্ট্যানফোর্ডের গবেষকরা এআই টুল তৈরি বিভিন্ন প্রযুক্তি কোম্পানিকে অনুরোধ করেছেন, গুরুত্বপূর্ণ ক্ষেত্রে এআই মডেলের ব্যবহার হওয়ার আগেই এগুলোকে ‘দ্রুত’ উন্নত করা প্রয়োজন। ‘ল্যাঙ্গুয়েজ মডেলস কান্ট রিলাইবিলি ডিস্টিনগুইজ বিলিফ ফ্রম নলেজ অ্যান্ড ফ্যাক্ট’ শিরোনামে গবেষণাটি প্রকাশ পেয়েছে বিজ্ঞানভিত্তিক জার্নাল ‘নেচার মেশিন ইন্টেলিজেন্স’-এ।

সর্বশেষ খবর পেতে রুপালী বাংলাদেশের গুগল নিউজ চ্যানেল ফলো করুন
আপনার ফেসবুক প্রোফাইল থেকে মতামত লিখুন