1. কন্টেন্টে যান
  2. মূল মেন্যুতে যান
  3. আরো ডয়চে ভেলে সাইটে যান
প্যানোরামাবিশ্ব

চ্যাটবটের উপর বাড়তি আস্থা না রাখলেই ভালো

৬ জুন ২০২৪

চ্যাটজিপিটি ও অন্যান্য ভয়েস অ্যাসিস্টেন্টের সঙ্গে সংলাপ ধীরে ধীরে প্রায় মানুষের মতো হয়ে উঠছে৷ এমনকি আস্থা ও আবেগের সম্পর্কও বিরল নয়৷ কিন্তু এআই সিস্টেম সম্পর্কে সতর্কতারও পরামর্শ দিচ্ছেন বিশেষজ্ঞরা৷

একটি ট্রাভেল চ্যাটবট অ্যাপ
জেনারেটিভ এআই বিদ্যুতের গতিতে বিকশিত হওয়ার ফলে ভয়েস অ্যাসিস্টেন্টগুলো আরো বেশি করে মানুষের মতো হয়ে উঠছেছবি: Nicole Almeida/DW

 

ব্যবহারকারী হিসেবে কেউ ‘ধন্যবাদ আলেক্সা', বা ‘না, সিরি' বলেন না৷ এবার কিন্তু এআই ভয়েস অ্যাসিস্টেন্টদের প্রতি মানুষের মতো আচরণ করা সহজ হয়ে উঠছে৷ গবেষণার ফলাফল অনুযায়ী বিশেষ করে শিশুদের পক্ষে যন্ত্র ও মানুষের মধ্যে পার্থক্য বোঝা আরো কঠিন হতে পারে৷

মানুষ ও এআই-এর মধ্যে পার্থক্য অস্পষ্ট হয়ে গেলে তার অর্থ কী? আলেক্সা বা গুগল হোম ডিভাইসকে আনুষ্ঠানিকভাবে কণ্ঠ-ভিত্তিক সংলাপের সহকারী বলা হয়৷ বিশেষ করে গোটা বিশ্বে শিশুদের মধ্যে এমন ডিভাইস ব্যবহারের প্রবণতা বেড়েই চলেছে৷ তারা এআই সিস্টেমের সঙ্গে নিয়মিত ভাবের আদানপ্রদান করছে৷

স্কটল্যান্ডের এক গবেষকদের দল ছয় থেকে এগারো বছর বয়সি শিশু-কিশোরদের সাক্ষাৎকার নিয়েছে৷ তাতে দেখা গেছে, যে প্রায় দুই-তৃতীয়াংশ মনে করে এমন সিস্টেম আমাদের মতোই ভাবনাচিন্তা করতে পারে এবং এমনকি তাদের মনে অনুভূতি ও আবেগও রয়েছে৷ আরো কমবয়সি শিশুরা এমনকি বলেছে, যে তাদের আলেক্সা খারাপ হয়ে গেলে সেই ডিভাইস ফেলে দেওয়া উচিত হবে না৷ সংলাপের সময়ে অবহেলা করা হলে আলেক্সার অনুভূতিতে আঘাত করা হবে বলে ৮০ শতাংশ কিশোর-কিশোরী মনে করে৷

গবেষকরা অবশ্য তার ভিত্তিতে এটা ধরে নিচ্ছেন না, যে এর ফলে শিশুদের কগনিটিভ বিকাশে ক্ষতি হচ্ছে৷ কিন্তু শিশুরা এআই সিস্টেমের নির্ভরযোগ্যতার অতিমূল্যায়ন করতে পারে, এমন ঝুঁকির প্রতি তাঁরা দৃষ্টি আকর্ষণ করছেন৷ সিরি বা অন্যান্য সহকারীর দেওয়া জবাবের ভিত্তিতে তারা ভুল সিদ্ধান্তও নিতে পারে৷

এআই পাচ্ছে মানুষের আবেগ!

03:54

This browser does not support the video element.

চ্যাটজিপিটি-র মতো জেনারেটিভ এআই বিদ্যুতের গতিতে বিকশিত হচ্ছে৷ এর ফলে ভয়েস অ্যাসিস্টেন্টগুলি আরো বেশি করে মানুষের মতো হয়ে উঠছে৷ ডেভেলপাররা ভয়েস অ্যাসিস্টেন্টগুলির সঙ্গে কথোপকথন আরো সাবলীল করে তুলতে অনেক উদ্যোগ নিচ্ছেন৷ কারণ ভাবের আদানপ্রদান যত সহজ হবে, আমরা ঠিক ততই সেই সহকারীর সঙ্গে সময় কাটাতে চাইবো৷ আর তাদের সঙ্গে আমরা যত সময় কাটাবো, নিজেদের সম্পর্কে তত বেশি মূল্যবান তথ্য তাদের হাতে তুলে দেবো৷

আলেক্সার আরো একটি মতলব রয়েছে৷ অ্যামাজন সেই ভয়েস অ্যাসিস্টেন্ট কাজে লাগিয়ে যত বেশি সম্ভব পণ্য বিক্রি করার চেষ্টা করে৷ কিন্তু যে সব যন্ত্র ও সফ্টওয়্যার অতিরিক্ত মাত্রায় মানুষের মতো হয়ে উঠছে, ভবিষ্যতে সেগুলি বড় সমস্যা হয়ে উঠতে পারে৷

২০২২ সালে এক সফ্টওয়্যার ইঞ্জিনিয়ার গুগলের ‘ল্যামডা' নামের সংলাপ-ভিত্তিক এআই সিস্টেম নিয়ে কাজ করার সময়ে দাবি করেছিলেন, যে সেই সফটওয়্যারের মধ্যে নাকি অনুভূতি দেখা যাচ্ছে৷ এক চ্যাটের মধ্যে ‘ল্যামডা' একটি বার্তা সৃষ্টি করেছিল৷ সে বলেছিল, ‘‘আমার সচেতনতা এবং সেন্টিয়েন্স বা অনুভূতি হলো, আমি নিজের অস্তিত্ব সম্পর্কে সচেতন৷ আমি জগত সম্পর্কে আরো জানতে চাই৷ আমি কখনো আনন্দ বা দুঃখ অনুভব করি৷'' শুনতে বেশ গা ছমছমে মনে হয় বটে৷ সেই সফ্টওয়্যার ইঞ্জিনিয়ার সেটি এবং অন্যান্য উদাহরণগুলিকে এআই সিস্টেমের সত্তার ‘প্রমাণ' হিসেবে তুলে ধরেছিলেন৷

এমন দাবি অবশ্যই ভিত্তিহীন৷ এআই চ্যাটবট যতই চমকপ্রদ হয়ে উঠুক না কেন, সেগুলির সঙ্গে সেন্টিয়েন্ট বিয়িং বা অনুভূতিপ্রবণ সত্তার কোনো তুলনাই হয় না৷ সেগুলি আসলে অতি উন্নত ‘অটোকমপ্লিট টুল' ছাড়া আর কিছুই নয়৷ তবে এটা সত্যি, যে এমন চ্যাটবটের সঙ্গে ভাবের আদানপ্রদান বাধাহীনভাবে চলতে থাকলে সাধারণ গুগল সার্চের তুলনায় আমরা তাদের উত্তরের প্রতি বেশি আস্থা দেখাই৷ গবেষণার ফল অনুযায়ী ব্যবহারকারীরা চ্যাটজিপিটি-র উত্তরগুলিকে আরো ভালো মানের বলে মনে করেন৷

কিন্তু এআই চ্যাটবটও ভুল করে৷ তাই অন্যান্য ডিজিটাল টুলের তুলনায় সেগুলির প্রতি বাড়তি আস্থা দেখানো মোটেই ভালো আইডিয়া নয়৷ শুধু তাই নয়, ‘ল্যামডা'-র কাহিনি দেখিয়ে দিচ্ছে, যে শুধু শিশুদেরই কৃত্তিম বুদ্ধিমত্তা সম্পর্কে আরো শিক্ষার প্রয়োজন নেই৷ স্কটল্যান্ডের গবেষকরা ‘এআই লিটরাসি' বা কৃত্তিম বু্দ্ধিমত্তা সম্পর্কে জ্ঞানের মানদণ্ডের আহ্বান জানাচ্ছেন৷ তাঁরা চান, স্কুলের পাঠক্রমের অংশ হিসেবে এআই নিয়ে আলোচনা করা হোক৷ সেইসঙ্গে এআই পণ্য যেন শিশু ও প্রাপ্তবয়স্কদের বিভ্রান্ত না করে, ডেভেলপারদেরও তা নিশ্চিত করতে বলছেন তাঁরা৷

চ্যাটবট কী? নিজের চোখেই দেখুন...

02:58

This browser does not support the video element.

মিশেল অস্টভাল্ড/এসবি

স্কিপ নেক্সট সেকশন এই বিষয়ে আরো তথ্য
স্কিপ নেক্সট সেকশন ডয়চে ভেলের শীর্ষ সংবাদ

ডয়চে ভেলের শীর্ষ সংবাদ

স্কিপ নেক্সট সেকশন ডয়চে ভেলে থেকে আরো সংবাদ

ডয়চে ভেলে থেকে আরো সংবাদ