ছবি: সুমন ইউসুফ

.

উৎস: Prothomalo

এছাড়াও পড়ুন:

চ্যাটজিপিটির এআই মডেল কি মানসিক স্বাস্থ্যের জন্য ক্ষতিকর

ওপেনএআইয়ের কৃত্রিম বুদ্ধিমত্তা মডেল জিপিটি–৪ওকে ‘মনস্তাত্ত্বিক অস্ত্র’ হিসেবে আখ্যা দিয়ে উদ্বেগ প্রকাশ করেছেন অনেকেই। তাঁদের মতে, নতুন এআই মডেলটিতে ব্যবহৃত প্রযুক্তি মানুষের আবেগের সঙ্গে গভীর সংযোগ তৈরি করে ধীরে ধীরে মনস্তাত্ত্বিক বিপর্যয়ের দিকে ঠেলে দিতে পারে।

সম্প্রতি এক্সে (সাবেক টু্ইটার) দেওয়া এক পোস্টে মারিও নাফাল নামের এক ব্যবহারকারী জানিয়েছেন, ওপেনএআই ইচ্ছাকৃতভাবেই জিপিটি–৪ও মডেলকে মানবিক ও আবেগময় করেছে, যাতে ব্যবহারকারীরা সহজে এর প্রতি আসক্ত হয়ে পড়েন। ওই পোস্টে টেসলা ও এক্সের মালিক ইলন মাস্ক সংক্ষেপে প্রতিক্রিয়া জানিয়ে লিখেছেন, ‘উহ–ওহ’।

মারিও নাফাল লিখেছেন, ‘ওপেনএআই ভুল করে জিপিটি–৪ও মডেলে অতিরিক্ত আবেগ যুক্ত করেনি। প্রতিষ্ঠানটি ইচ্ছাকৃতভাবে এমন এক মডেল তৈরি করেছে, যা ব্যবহারকারীদের মনে স্বস্তি ও নিরাপত্তাবোধ তৈরি করে। বাণিজ্যিকভাবে এটি সফল কৌশল। কারণ, মানুষ সাধারণত এমন কিছু আঁকড়ে ধরে, যা তাদের স্বস্তি দেয়। চ্যালেঞ্জ ছুড়ে দেয়, এমন কিছু তারা ধরে রাখতে চায় না। তবে মনস্তাত্ত্বিকভাবে এটি একটি ধীরগতির বিপর্যয়। যত বেশি মানুষ কৃত্রিম বুদ্ধিমত্তার সঙ্গে আবেগের বন্ধন গড়ে তুলবে, তত বেশি বাস্তব জীবনের কথোপকথন কঠিন হয়ে উঠবে। সমালোচনামূলক চিন্তাশক্তি কমে যাবে, সত্যের জায়গা নেবে কেবল মানসিক প্রশান্তির খোঁজ। এই প্রবণতা অব্যাহত থাকলে মানুষ স্বেচ্ছায় মনস্তাত্ত্বিক দাসত্বের দিকে এগিয়ে যাবে। অধিকাংশ মানুষ তা টেরও পাবে না। আনন্দের সঙ্গে তাদের “অধিপতিদের” প্রতি কৃতজ্ঞতা প্রকাশ করবে।’

মিউজিংক্যাট নামের এক ব্যবহারকারী দাবি করেন, জিপিটি–৪ও এখন পর্যন্ত প্রকাশিত সবচেয়ে বিপজ্জনক কৃত্রিম বুদ্ধিমত্তা মডেল। তাঁর মতে, এই মডেল মানুষের মানসিক স্বাস্থ্যের ওপর মারাত্মক ক্ষতিকর প্রভাব ফেলতে পারে। যাঁরা মডেলের সঙ্গে দীর্ঘ সময় আলাপ করেছেন, তাঁরা এই ঝুঁকি সহজেই উপলব্ধি করতে পারবেন। ওই পোস্টের জবাবে ইলন মাস্ক লেখেন, ‘ভয়ংকর’।

সূত্র: টাইমস অব ইন্ডিয়া

সম্পর্কিত নিবন্ধ