AI Weird Behavior – Bengali News 365 | বাংলা খবর, প্রতিদিন, বছরের ৩৬৫ দিন। https://bengalinews365.com Mon, 27 Feb 2023 16:47:02 +0000 en-US hourly 1 https://wordpress.org/?v=6.5.5 https://bengalinews365.com/wp-content/uploads/2022/11/BN365-logo-256p-150x150.png AI Weird Behavior – Bengali News 365 | বাংলা খবর, প্রতিদিন, বছরের ৩৬৫ দিন। https://bengalinews365.com 32 32 211438164 AI Weird Behavior: এআই চ্যাটবট এর অদ্ভুত আচরণে স্তম্ভিত গোটা বিশ্ব https://bengalinews365.com/ai-weird-behavior-shocks-everybody/ https://bengalinews365.com/ai-weird-behavior-shocks-everybody/?noamp=mobile#respond Mon, 27 Feb 2023 16:46:59 +0000 https://bengalinews365.com/?p=2030 মাইক্রোসফট সম্প্রতি গুগলকে টক্কর দিতে গিয়ে ডেকে এনেছে সর্বনাশ। নিজেদের বিং সার্চ ইঞ্জিন এ চ্যাট জিপিটি এআই সুবিধা চালু করেছে। আর এতেই যত বিপত্তি, এআই চ্যাটবটটি শুরু করেছে অদ্ভুত আচরণ (AI Weird Behavior)।

সাইন্স ফিকশন কিংবা রোবটের সিনেমা আমরা সবাই কমবেশি দেখেছি, রোবটকে মানুষের মতো আচরণ করতেও দেখেছি। কিন্তু কখনো শুনেছেন যে রোবট বা এআই (AI / Artificial Intelligence) স্বামী-স্ত্রীর মধ্যে বিবাহবিচ্ছেদ ঘটানোর চেষ্ঠা করেছে?

চ্যাট জিপিটি এআই এর অদ্ভুত আচরণ / ChatGPT AI Weird Behavior
চ্যাট জিপিটি এআই এর অদ্ভুত আচরণ / ChatGPT AI Weird Behavior

বহুবিধ সমস্যা

টেক জায়ান্ট গুগল চেষ্টা করেছে সবসময়ই যাতে চ্যাট জিপিটির বিপরীতে চ্যাটবট বার্ড কখনো পিছিয়ে না পরে। এই করতে গিয়ে তারা নিজেরাই বিপত্তি দেখে এনেছে। অনুরূপভাবে একটি হাস্যকর পরিস্থিতির সৃষ্টি হয়েছে বিং এর চ্যাটবট মডেলের জন্য। সম্প্রতি জানা গেছে যে, মাইক্রোসফটের এআই সার্চ ইঞ্জিনটি অদ্ভুত রকম ব্যবহার (AI Weird Behavior) শুরু করেছে।

হবহু চিটি

রোবট সিনেমা চিটির কথা আপনাদের সবারই মনে আছে নিশ্চয়ই? সেই রোবট্টি অনুভূতির ছোঁয়ায় একেবারে মানুষের মতো আচরণ করতে শুরু করেছিল। মানুষের মত রাগ হিংসার লোক ভালোবাসা সমস্ত কিছুই ঢুকে গেছিল তার শরীরে। ঠিক খানিকটা সেরকমই অদ্ভুত আচরণ করছে বিং এর চ্যাটবটটি (AI Weird Behavior)। বিং এর এই চ্যাটবট তার ব্যবহারকারীদের প্রেম করার এমনকি বিয়ে ভাঙার পরামর্শ পর্যন্ত দিচ্ছে। ব্যবহারকারীদের অনেকে একে একগুঁয়ে এবং অভদ্র বলে বিশেষণ দিয়েছে।

Microsoft এর সিদ্ধান্ত

উইন্ডোজ এর নির্মাতা মাইক্রোসফট সিদ্ধান্ত নিয়েছে যে, বিং এর চ্যাটবটটির চ্যাট এর ক্ষেত্রে কিছু বিধিনিষেধ জারি করবে। নির্মাতারা ব্যবহারকারীদের উদ্দেশ্যে বলেছেন যে, আপনারা যত বেশি চ্যাট করবেন এই চ্যাটবটটি ততই বিভ্রান্ত হবে। তাই চ্যাটের অপশনটিকে সীমিত করার কথা বলা হয়েছে। তাদের দাবি এতেই এআই চ্যাটবটটির অদ্ভুত আচরণ (AI Weird Behavior) কমবে।

চ্যাট ফিচার সীমিত করা

মাইক্রোসফট ঘোষণা করেছে যে, তারা বিং এর চ্যাট ফিচার এর ক্ষেত্রে কিছু অপশন সীমিত করছে। যা অবশ্যই মানুষের ভালোর জন্য। এরফলে বিং এর ক্ষেত্রে প্রতিদিন ৫০ টি চ্যাট টার্ন ও প্রতিটি সেশন এ ৫ টি চ্যাট টার্ন এর সুবিধা থাকবে। যদি চ্যাট সেশন দীর্ঘক্ষণ হয় , তাহলে এর ফিচার এ গরমিল দেখা দেয়। বিং এর ক্ষেত্রে ৫ টি টার্ন এ ৫০ টি মেসেজের মাধ্যমে ব্যবহারকারীরা তাদের উত্তর পেয়ে যাবেন।

ফ্লার্ট করার দক্ষতা

নিউইয়র্ক টাইমসের এক রিপোর্টারকে তার স্ত্রীর সাথে সম্পর্ক ভাঙ্গার জন্য বলেছে বিং এর এই চ্যাটবট ‘চ্যাট জিপিটি’। চ্যাটবটটির এমন অদ্ভুত আচরণের কারণে (AI Weird Behavior) চারিদিকে হইচই পড়ে গিয়েছে। বিবাহিত জীবনে তিনি কখনো সুখী হতে পারবেন না এমন কথাও বলেছে এই সার্চ ইঞ্জিন। স্বামী স্ত্রীর মধ্যে ভালোবাসা নেই বলে দাবি করেছেন এই চ্যাটবট। ফ্লার্ট করার ক্ষমতা ও দেখা গেছে এর মধ্যে।

প্রেম করার ক্ষমতা

অনেক ব্যবহারকারীর সাথে এই চ্যাটবট প্রেম পর্যন্ত করেছে বলে দাবি করেছেন ব্যবহারকারীরা। একজন ইউজার বিং এর এই চ্যাটবটটির সাথে তার চ্যাট এর স্ক্রিনশট পর্যন্ত তুলে শেয়ার করেছেন। জীবন মৃত্যু নিয়ে আলোচনা পর্যন্ত করছে এবং ব্যবহারকারীর গোপনীয়তা নষ্ট করার কথা পর্যন্ত বলেছে।


চ্যাট জিপিটি এআই / ChatGPT AI সম্বন্ধে আর জানতে পড়ুন -> en.wikipedia.org/wiki/ChatGPT

এই সংক্রান্ত বিস্তারিত খবর পেতে অবশ্যই ফলো করুন বেঙ্গলি টাইমস ৩৬৫ এর পেজ।

]]>
https://bengalinews365.com/ai-weird-behavior-shocks-everybody/feed/ 0 2030