বিতর্কিত বিষয়ে কৃত্রিম বুদ্ধিমত্তা কি নিরপেক্ষ
Published: 6th, April 2025 GMT
মার্কিন ধনকুবের ইলন মাস্কের কোম্পানি এক্স ভারতে সম্প্রতি তাদের কৃত্রিম বুদ্ধিমত্তা (এআই) চ্যাটবট গ্রোক উদ্বোধন করে। এর পরই দেশটিতে শুরু হয় বিতর্কের সুনামি। গ্রোককে নানা বিতর্কিত বিষয় নিয়ে প্রশ্ন করতে থাকেন ভারতীয়রা। দেশটির স্বাধীনতা আন্দোলনে হিন্দুত্ববাদী কট্টরপন্থি সংগঠন আরএসএসের ভূমিকা কী ছিল– এমন প্রশ্নে গ্রোক জানায়, তেমন কোনো ভূমিকাই তাদের ছিল না। সোনিয়া গান্ধী বার ডান্সার ছিলেন কিনা– প্রশ্নে গ্রোক জানায়, তিনি বার এটেন্ডেন্স হিসেবে কাজ করেছেন, ডান্সার ছিলেন না।
গ্রোকের এসব জবাবে অনেকেই বলছেন, এটি বেশ স্বচ্ছভাবে ঐতিহাসিক সত্যগুলোকে তুলে ধরছে। গ্রোক যা বলছে, সেগুলো ইতিহাসের প্রেক্ষাপটে অনেকে ক্ষেত্রে সত্য হলেও ক্ষমতাসীন বিজেপি ও তাদের আশাপাশে থাকা কট্টর হিন্দুত্ববাদীরা এর নিরপেক্ষতা নিয়ে প্রশ্ন তুলছেন। তারা বলছেন, ইলন মাস্কের এআই চ্যাটবট তো কংগ্রেস সমর্থক। এআই চ্যাটবট কি আসলেই নিরপেক্ষ মতামত দেয়? এর ওপর কি আস্থা রাখা যায়?
নতুন এক গবেষণা বলছে, সব সময় এআইর ওপর পুরোপুরি আস্থা রাখা সম্ভব নয়। কারণ, এআইও অতি আত্মবিশ্বাসী হয়ে আমাদের মতো ভুলের ফাঁদে পড়ে। এটি ঝুঁকি এড়াতে পছন্দ করে। বিশেষ করে পুরোপুরি যৌক্তিক নয়, এমন বিষয়ে এটি দ্বিধাদ্বন্দ্বে পড়তে পারে।
বেশ কয়েকজন বিজ্ঞানী এ নিয়ে গবেষণা করেছেন। তারা ওপেন এআইর তৈরি চ্যাটজিপিটির মতো জনপ্রিয় চ্যাটবট নিয়ে পরীক্ষা-নিরীক্ষা করেন। প্রাপ্ত ফলে দেখা গেছে, গণিত ও যৌক্তির বিষয় যখন আসে, তখন এআই ভালো পারফর্ম করছে।
সাধারণত দ্রুত সময়ে সিদ্ধান্ত নিতে গিয়ে ভুল করে মানব মস্তিষ্ক। এ ছাড়া সবকিছু সাধারণ করে বিবেচনা করার বিষয় তো আছেই। ধরুন, কোনো কিছু থেকে আপনার মস্তিষ্ক একটা বাজে অভিজ্ঞতা পেয়েছে, তাহলে ভবিষ্যতে এ ধরনের অন্য কিছুতেও আপনি ভয় পাবেন। মানে হলো, জঙ্গলে গিয়ে সাপের মুখে পড়লে, আরেকটি জঙ্গলে ঢুকে একই ভয়ই আপনি পাবেন। মানব মস্তিষ্ক এভাবে কাজ করে। আমাদের বিচার তৈরি হয় মূলত পরিবেশ, পরিবার, সংস্কৃতি, গণমাধ্যম ও অতীত অভিজ্ঞতার ভিত্তিতে। সময়ের বিবর্তনে আমরা ক্রমাগতই মানুষ, পরিস্থিতি ও তথ্য সম্পর্কে আমাদের ধারণা বদলাতে থাকি।
বিজ্ঞানীরা দেখেছেন, চ্যাটজিপিটি মানুষের মতোই নানা বিষয়ে প্রায় অর্ধেক সংখ্যক পরীক্ষায় ভুল করছে। এটাও অতি আত্মবিশ্বাস দেখাচ্ছে। সেই সঙ্গে জটিলতা এড়ানোর চেষ্টা করছে। তবে কিছু ক্ষেত্রে ভিন্ন আচরণও দেখা গেছে। বিজ্ঞানীরা বলছেন, কৃত্রিম বুদ্ধিমত্তা বা এআই গণিতভিত্তিক সমস্যার সমাধানে ভালো ফল করছে। তবে কোনো কিছু বিচার বা মূল্যায়নের ক্ষেত্রে কখনও বিভ্রান্ত হচ্ছে।
কানাডার ওয়েস্টার্ন ইউনিভার্সিটির সহকারী অধ্যাপক ইয়াং চেন বলেন, যেহেতু এআই মানুষের সরবরাহ করা তথ্য থেকে শেখে, তাই এটা চিন্তাও করে মানুষের মতো। সেখানে পক্ষপাতিত্ব বা অন্যান্য বিষয় থাকে। সূত্র: আর্থ ডটকম।
.উৎস: Samakal
কীওয়ার্ড: এআই ক ত র ম ব দ ধ মত ত চ য টবট
এছাড়াও পড়ুন:
বিতর্কিত বিষয়ে কৃত্রিম বুদ্ধিমত্তা কি নিরপেক্ষ
মার্কিন ধনকুবের ইলন মাস্কের কোম্পানি এক্স ভারতে সম্প্রতি তাদের কৃত্রিম বুদ্ধিমত্তা (এআই) চ্যাটবট গ্রোক উদ্বোধন করে। এর পরই দেশটিতে শুরু হয় বিতর্কের সুনামি। গ্রোককে নানা বিতর্কিত বিষয় নিয়ে প্রশ্ন করতে থাকেন ভারতীয়রা। দেশটির স্বাধীনতা আন্দোলনে হিন্দুত্ববাদী কট্টরপন্থি সংগঠন আরএসএসের ভূমিকা কী ছিল– এমন প্রশ্নে গ্রোক জানায়, তেমন কোনো ভূমিকাই তাদের ছিল না। সোনিয়া গান্ধী বার ডান্সার ছিলেন কিনা– প্রশ্নে গ্রোক জানায়, তিনি বার এটেন্ডেন্স হিসেবে কাজ করেছেন, ডান্সার ছিলেন না।
গ্রোকের এসব জবাবে অনেকেই বলছেন, এটি বেশ স্বচ্ছভাবে ঐতিহাসিক সত্যগুলোকে তুলে ধরছে। গ্রোক যা বলছে, সেগুলো ইতিহাসের প্রেক্ষাপটে অনেকে ক্ষেত্রে সত্য হলেও ক্ষমতাসীন বিজেপি ও তাদের আশাপাশে থাকা কট্টর হিন্দুত্ববাদীরা এর নিরপেক্ষতা নিয়ে প্রশ্ন তুলছেন। তারা বলছেন, ইলন মাস্কের এআই চ্যাটবট তো কংগ্রেস সমর্থক। এআই চ্যাটবট কি আসলেই নিরপেক্ষ মতামত দেয়? এর ওপর কি আস্থা রাখা যায়?
নতুন এক গবেষণা বলছে, সব সময় এআইর ওপর পুরোপুরি আস্থা রাখা সম্ভব নয়। কারণ, এআইও অতি আত্মবিশ্বাসী হয়ে আমাদের মতো ভুলের ফাঁদে পড়ে। এটি ঝুঁকি এড়াতে পছন্দ করে। বিশেষ করে পুরোপুরি যৌক্তিক নয়, এমন বিষয়ে এটি দ্বিধাদ্বন্দ্বে পড়তে পারে।
বেশ কয়েকজন বিজ্ঞানী এ নিয়ে গবেষণা করেছেন। তারা ওপেন এআইর তৈরি চ্যাটজিপিটির মতো জনপ্রিয় চ্যাটবট নিয়ে পরীক্ষা-নিরীক্ষা করেন। প্রাপ্ত ফলে দেখা গেছে, গণিত ও যৌক্তির বিষয় যখন আসে, তখন এআই ভালো পারফর্ম করছে।
সাধারণত দ্রুত সময়ে সিদ্ধান্ত নিতে গিয়ে ভুল করে মানব মস্তিষ্ক। এ ছাড়া সবকিছু সাধারণ করে বিবেচনা করার বিষয় তো আছেই। ধরুন, কোনো কিছু থেকে আপনার মস্তিষ্ক একটা বাজে অভিজ্ঞতা পেয়েছে, তাহলে ভবিষ্যতে এ ধরনের অন্য কিছুতেও আপনি ভয় পাবেন। মানে হলো, জঙ্গলে গিয়ে সাপের মুখে পড়লে, আরেকটি জঙ্গলে ঢুকে একই ভয়ই আপনি পাবেন। মানব মস্তিষ্ক এভাবে কাজ করে। আমাদের বিচার তৈরি হয় মূলত পরিবেশ, পরিবার, সংস্কৃতি, গণমাধ্যম ও অতীত অভিজ্ঞতার ভিত্তিতে। সময়ের বিবর্তনে আমরা ক্রমাগতই মানুষ, পরিস্থিতি ও তথ্য সম্পর্কে আমাদের ধারণা বদলাতে থাকি।
বিজ্ঞানীরা দেখেছেন, চ্যাটজিপিটি মানুষের মতোই নানা বিষয়ে প্রায় অর্ধেক সংখ্যক পরীক্ষায় ভুল করছে। এটাও অতি আত্মবিশ্বাস দেখাচ্ছে। সেই সঙ্গে জটিলতা এড়ানোর চেষ্টা করছে। তবে কিছু ক্ষেত্রে ভিন্ন আচরণও দেখা গেছে। বিজ্ঞানীরা বলছেন, কৃত্রিম বুদ্ধিমত্তা বা এআই গণিতভিত্তিক সমস্যার সমাধানে ভালো ফল করছে। তবে কোনো কিছু বিচার বা মূল্যায়নের ক্ষেত্রে কখনও বিভ্রান্ত হচ্ছে।
কানাডার ওয়েস্টার্ন ইউনিভার্সিটির সহকারী অধ্যাপক ইয়াং চেন বলেন, যেহেতু এআই মানুষের সরবরাহ করা তথ্য থেকে শেখে, তাই এটা চিন্তাও করে মানুষের মতো। সেখানে পক্ষপাতিত্ব বা অন্যান্য বিষয় থাকে। সূত্র: আর্থ ডটকম।