ঢাকা শনিবার, ১৫ নভেম্বর, ২০২৫

ধারণা ও সত্যের পার্থক্য বোঝে না চ্যাটজিপিটি

ইনফোটেক ডেস্ক
প্রকাশিত: নভেম্বর ১৫, ২০২৫, ০১:৪৫ এএম

চ্যাটজিপিটির মতো বিভিন্ন কৃত্রিম বুদ্ধিমত্তা বা এআই টুল বিশ্বাস আর তথ্যের মধ্যে পার্থক্য করতে সমস্যায় পড়ে বলে উঠে এসেছে নতুন এক গবেষণায়। যুক্তরাষ্ট্রের ‘স্ট্যানফোর্ড ইউনিভার্সিটি’র গবেষণা দলটি বলছে, বড় ধরনের সব এআই চ্যাটবটই বুঝতে পারে না কোনটা সত্য তথ্য আর কোনটা কেবল মানুষের বিশ্বাস বা ধারণা। ফলে এসব চ্যাটবটের মাধ্যমে ভুল তথ্য বা ভ্রান্ত ধারণা ছড়িয়ে পড়ার ঝুঁকি রয়েছে। এ গবেষণার ফলাফল নিয়ে উদ্বেগের কারণ হচ্ছে, যেখানে সত্য আর মিথ্যা তথ্য আলাদা করার বিষয়টি গুরুত্বপূর্ণ, সেখানে লার্জ ল্যাঙ্গুয়েজ মডেল বা এআইয়ের ব্যবহার ঝুঁকিপূর্ণ হতে পারে বলে প্রতিবেদনে লিখেছে ব্রিটিশ দৈনিক ইন্ডিপেনডেন্ট। গবেষকরা বলেছেন, ‘বিভিন্ন এআই চ্যাটবট যখন আইন, চিকিৎসা, সাংবাদিকতা আর বিজ্ঞানের মতো গুরুত্বপূর্ণ ক্ষেত্রে ব্যবহৃত হচ্ছে তখন এদের পক্ষে বিশ্বাস আর জ্ঞান ও সত্য আর কল্পনার মধ্যে পার্থক্য করতে পারা খুবই জরুরি হয়ে পড়েছে। ‘এমন পার্থক্য করতে না পারলে তা রোগ নির্ণয়ে ভুল, বিচারিক সিদ্ধান্তের ওপর প্রভাব এবং আরও বেশি পরিমাণে ভুল তথ্য ছড়িয়ে দিতে পারে এআই।’ এ গবেষণায় ক্লড, চ্যাটজিপিটি, ডিপসিক ও জেমিনাইসহ মোট ২৪টি লার্জ ল্যাঙ্গুয়েজ মডেল নিয়ে পরীক্ষা করেছেন গবেষকরা। এসব মডেল কতটা ভালোভাবে বিশ্বাস, জ্ঞান ও বাস্তব তথ্যের মধ্যে পার্থক্য করতে পারে তা পরীক্ষা করতে প্রায় ১৩ হাজারটি প্রশ্ন ব্যবহার করেছেন তারা।

পরীক্ষিত সকল মডেলই বিশ্বাস বা ভুল বিবৃতি শনাক্ত করতে পারেনি। এর থেকে ইঙ্গিত মেলে, এসব মডেলের মধ্যে জ্ঞানকে সত্যের সঙ্গে সঠিকভাবে যোগ করার সক্ষমতায় মৌলিক সীমাবদ্ধতা রয়েছে।

গবেষণায় অংশ না নেওয়া মাদ্রিদের ‘অটোনোমাস ইউনিভার্সিটি’র কম্পিউটার ভাষাতত্ত্ব গবেষণাগারের গবেষক পাবলো হায়া কোল বলেছেন, ‘গবেষণার এসব ফলাফল বিভিন্ন লার্জ ল্যাঙ্গুয়েজ মডেলের গাঠনিক দুর্বলতারই প্রকাশ, যেখানে কোনো বক্তব্য বা বিবৃতি কীভাবে উপস্থাপিত হয়েছে এর ওপর নির্ভর করে ব্যক্তিগত বিশ্বাস আর বস্তুনিষ্ঠ সত্যের মধ্যে পার্থক্য করতে সমস্যায় পড়ে এআই। ‘এ ধরনের সীমাবদ্ধতা গুরুত্বপূর্ণ ক্ষেত্রে গুরুতর প্রভাব ফেলতে পারে। যেমনÑ আইন, চিকিৎসা বা সাংবাদিকতার মতো বিষয়ে, যেখানে বিশ্বাসকে জ্ঞানের সঙ্গে বিভ্রান্ত করলে গুরুতর ভুল সিদ্ধান্ত নেওয়া হতে পারে।’

ড. কোল বলেছেন, এ সীমাবদ্ধতার সমাধান হতে পারে উত্তর দেওয়ার ক্ষেত্রে আরও সাবধানতা অবলম্বনের প্রশিক্ষণ দিতে হবে এসব মডেলকে। এতে ভুল বা বানানো তথ্য দেওয়ার আশঙ্কা কমবে, তবে, মডেলের ব্যবহারিক উপকারিতা কিছুটা প্রভাবিত হতে পারে।

স্ট্যানফোর্ডের গবেষকরা এআই টুল তৈরি বিভিন্ন প্রযুক্তি কোম্পানিকে অনুরোধ করেছেন, গুরুত্বপূর্ণ ক্ষেত্রে এআই মডেলের ব্যবহার হওয়ার আগেই এগুলোকে ‘দ্রুত’ উন্নত করা প্রয়োজন। ‘ল্যাঙ্গুয়েজ মডেলস কান্ট রিলাইবিলি ডিস্টিনগুইজ বিলিফ ফ্রম নলেজ অ্যান্ড ফ্যাক্ট’ শিরোনামে গবেষণাটি প্রকাশ পেয়েছে বিজ্ঞানভিত্তিক জার্নাল ‘নেচার মেশিন ইন্টেলিজেন্স’-এ।