চ্যাটজিপিটির এআই মডেল কি মানসিক স্বাস্থ্যের জন্য ক্ষতিকর
Published: 29th, April 2025 GMT
ওপেনএআইয়ের কৃত্রিম বুদ্ধিমত্তা মডেল জিপিটি–৪ওকে ‘মনস্তাত্ত্বিক অস্ত্র’ হিসেবে আখ্যা দিয়ে উদ্বেগ প্রকাশ করেছেন অনেকেই। তাঁদের মতে, নতুন এআই মডেলটিতে ব্যবহৃত প্রযুক্তি মানুষের আবেগের সঙ্গে গভীর সংযোগ তৈরি করে ধীরে ধীরে মনস্তাত্ত্বিক বিপর্যয়ের দিকে ঠেলে দিতে পারে।
সম্প্রতি এক্সে (সাবেক টু্ইটার) দেওয়া এক পোস্টে মারিও নাফাল নামের এক ব্যবহারকারী জানিয়েছেন, ওপেনএআই ইচ্ছাকৃতভাবেই জিপিটি–৪ও মডেলকে মানবিক ও আবেগময় করেছে, যাতে ব্যবহারকারীরা সহজে এর প্রতি আসক্ত হয়ে পড়েন। ওই পোস্টে টেসলা ও এক্সের মালিক ইলন মাস্ক সংক্ষেপে প্রতিক্রিয়া জানিয়ে লিখেছেন, ‘উহ–ওহ’।
মারিও নাফাল লিখেছেন, ‘ওপেনএআই ভুল করে জিপিটি–৪ও মডেলে অতিরিক্ত আবেগ যুক্ত করেনি। প্রতিষ্ঠানটি ইচ্ছাকৃতভাবে এমন এক মডেল তৈরি করেছে, যা ব্যবহারকারীদের মনে স্বস্তি ও নিরাপত্তাবোধ তৈরি করে। বাণিজ্যিকভাবে এটি সফল কৌশল। কারণ, মানুষ সাধারণত এমন কিছু আঁকড়ে ধরে, যা তাদের স্বস্তি দেয়। চ্যালেঞ্জ ছুড়ে দেয়, এমন কিছু তারা ধরে রাখতে চায় না। তবে মনস্তাত্ত্বিকভাবে এটি একটি ধীরগতির বিপর্যয়। যত বেশি মানুষ কৃত্রিম বুদ্ধিমত্তার সঙ্গে আবেগের বন্ধন গড়ে তুলবে, তত বেশি বাস্তব জীবনের কথোপকথন কঠিন হয়ে উঠবে। সমালোচনামূলক চিন্তাশক্তি কমে যাবে, সত্যের জায়গা নেবে কেবল মানসিক প্রশান্তির খোঁজ। এই প্রবণতা অব্যাহত থাকলে মানুষ স্বেচ্ছায় মনস্তাত্ত্বিক দাসত্বের দিকে এগিয়ে যাবে। অধিকাংশ মানুষ তা টেরও পাবে না। আনন্দের সঙ্গে তাদের “অধিপতিদের” প্রতি কৃতজ্ঞতা প্রকাশ করবে।’
মিউজিংক্যাট নামের এক ব্যবহারকারী দাবি করেন, জিপিটি–৪ও এখন পর্যন্ত প্রকাশিত সবচেয়ে বিপজ্জনক কৃত্রিম বুদ্ধিমত্তা মডেল। তাঁর মতে, এই মডেল মানুষের মানসিক স্বাস্থ্যের ওপর মারাত্মক ক্ষতিকর প্রভাব ফেলতে পারে। যাঁরা মডেলের সঙ্গে দীর্ঘ সময় আলাপ করেছেন, তাঁরা এই ঝুঁকি সহজেই উপলব্ধি করতে পারবেন। ওই পোস্টের জবাবে ইলন মাস্ক লেখেন, ‘ভয়ংকর’।
সূত্র: টাইমস অব ইন্ডিয়া
.উৎস: Prothomalo
কীওয়ার্ড: মনস ত ত ত ব ক
এছাড়াও পড়ুন:
চ্যাটজিপিটির এআই মডেল কি মানসিক স্বাস্থ্যের জন্য ক্ষতিকর
ওপেনএআইয়ের কৃত্রিম বুদ্ধিমত্তা মডেল জিপিটি–৪ওকে ‘মনস্তাত্ত্বিক অস্ত্র’ হিসেবে আখ্যা দিয়ে উদ্বেগ প্রকাশ করেছেন অনেকেই। তাঁদের মতে, নতুন এআই মডেলটিতে ব্যবহৃত প্রযুক্তি মানুষের আবেগের সঙ্গে গভীর সংযোগ তৈরি করে ধীরে ধীরে মনস্তাত্ত্বিক বিপর্যয়ের দিকে ঠেলে দিতে পারে।
সম্প্রতি এক্সে (সাবেক টু্ইটার) দেওয়া এক পোস্টে মারিও নাফাল নামের এক ব্যবহারকারী জানিয়েছেন, ওপেনএআই ইচ্ছাকৃতভাবেই জিপিটি–৪ও মডেলকে মানবিক ও আবেগময় করেছে, যাতে ব্যবহারকারীরা সহজে এর প্রতি আসক্ত হয়ে পড়েন। ওই পোস্টে টেসলা ও এক্সের মালিক ইলন মাস্ক সংক্ষেপে প্রতিক্রিয়া জানিয়ে লিখেছেন, ‘উহ–ওহ’।
মারিও নাফাল লিখেছেন, ‘ওপেনএআই ভুল করে জিপিটি–৪ও মডেলে অতিরিক্ত আবেগ যুক্ত করেনি। প্রতিষ্ঠানটি ইচ্ছাকৃতভাবে এমন এক মডেল তৈরি করেছে, যা ব্যবহারকারীদের মনে স্বস্তি ও নিরাপত্তাবোধ তৈরি করে। বাণিজ্যিকভাবে এটি সফল কৌশল। কারণ, মানুষ সাধারণত এমন কিছু আঁকড়ে ধরে, যা তাদের স্বস্তি দেয়। চ্যালেঞ্জ ছুড়ে দেয়, এমন কিছু তারা ধরে রাখতে চায় না। তবে মনস্তাত্ত্বিকভাবে এটি একটি ধীরগতির বিপর্যয়। যত বেশি মানুষ কৃত্রিম বুদ্ধিমত্তার সঙ্গে আবেগের বন্ধন গড়ে তুলবে, তত বেশি বাস্তব জীবনের কথোপকথন কঠিন হয়ে উঠবে। সমালোচনামূলক চিন্তাশক্তি কমে যাবে, সত্যের জায়গা নেবে কেবল মানসিক প্রশান্তির খোঁজ। এই প্রবণতা অব্যাহত থাকলে মানুষ স্বেচ্ছায় মনস্তাত্ত্বিক দাসত্বের দিকে এগিয়ে যাবে। অধিকাংশ মানুষ তা টেরও পাবে না। আনন্দের সঙ্গে তাদের “অধিপতিদের” প্রতি কৃতজ্ঞতা প্রকাশ করবে।’
মিউজিংক্যাট নামের এক ব্যবহারকারী দাবি করেন, জিপিটি–৪ও এখন পর্যন্ত প্রকাশিত সবচেয়ে বিপজ্জনক কৃত্রিম বুদ্ধিমত্তা মডেল। তাঁর মতে, এই মডেল মানুষের মানসিক স্বাস্থ্যের ওপর মারাত্মক ক্ষতিকর প্রভাব ফেলতে পারে। যাঁরা মডেলের সঙ্গে দীর্ঘ সময় আলাপ করেছেন, তাঁরা এই ঝুঁকি সহজেই উপলব্ধি করতে পারবেন। ওই পোস্টের জবাবে ইলন মাস্ক লেখেন, ‘ভয়ংকর’।
সূত্র: টাইমস অব ইন্ডিয়া