বড় ভাষার মডেলগুলি আপনার কাছে মিথ্যা বলতে পারে - এই প্রফেসর চান আপনি জানতে চান তারা কখন করবে - গণপ্রযুক্তি নেতৃত্ব পরিষদ

বড় ভাষার মডেলগুলি আপনার কাছে মিথ্যা বলতে পারে – এই অধ্যাপক আপনাকে জানতে চান তারা কখন করবে – গণপ্রযুক্তি নেতৃত্ব পরিষদ

বড় ভাষার মডেলগুলি আপনাকে মিথ্যা বলতে পারে - এই প্রফেসর চান আপনি জানতে চান যে তারা কখন করবে - গণপ্রযুক্তি নেতৃত্ব কাউন্সিল প্লেটোব্লকচেন ডেটা ইন্টেলিজেন্স। উল্লম্ব অনুসন্ধান. আ.

প্রায় যেকোন ব্যক্তির সাথে কথা বলুন - যেকোনও মানুষ, অর্থাৎ - এবং আপনার কথোপকথন কী সম্মুখীন হবে মালিহে আলীখানি "স্বাস্থ্যকর ঘর্ষণ" বলে, এমন মুহূর্ত যেখানে কথোপকথনে আপনার লক্ষ্য আপনার সঙ্গীর বিরুদ্ধে ধাক্কা খায়, এমন মুহূর্ত যা স্পষ্টীকরণের প্রয়োজন, বিভ্রান্তি তৈরি করে বা মতবিরোধের দিকে নিয়ে যায়।

বৃহৎ ভাষার মডেলের সাথে তা নয়।

নর্থইস্টার্ন ইউনিভার্সিটির খৌরি কলেজ অফ কম্পিউটার সায়েন্সেসের সহকারী অধ্যাপক আলিখানি বলেছেন যে চ্যাটজিপিটির মতো বড় ভাষার মডেলগুলির নিশ্চিততার সাথে একটি গুরুতর সমস্যা রয়েছে।

আলিখানির নতুন প্রকল্প, কথোপকথনমূলক লেনদেনে জবাবদিহিতার জন্য ঘর্ষণ (FACT), হল উত্তর-পূর্ব বিশ্ববিদ্যালয়, ইউনিভার্সিটি অফ ইলিনয় আরবানা-চ্যাম্পেন এবং ইউনিভার্সিটি অফ সাউদার্ন ক্যালিফোর্নিয়ার মধ্যে একটি সহযোগিতা।

ডিফেন্স অ্যাডভান্সড রিসার্চ প্রজেক্ট এজেন্সির মাধ্যমে একটি কৃত্রিম বুদ্ধিমত্তা অন্বেষণ অনুদানের মাধ্যমে অর্থায়ন করা, FACT প্রকল্পের লক্ষ্য আরও স্বচ্ছ এবং ন্যায়সঙ্গত কৃত্রিম বুদ্ধিমত্তার সরঞ্জামগুলি বিকাশ করা।

আলিখানি বলেছেন, "মানুষের যোগাযোগকে একটি ফলপ্রসূ হাতিয়ার করে তোলে এমন একটি বিষয় হল, আমরা আমাদের বক্তৃতায়, আমাদের সুরে আমাদের অনিশ্চয়তার প্রতিনিধিত্ব করি। আমরা এটি আমাদের মুখের অভিব্যক্তিতে রেখেছি।"

মানুষ থেকে মানুষে যোগাযোগের অনিশ্চয়তা থেকে উদ্ভূত স্বাস্থ্যকর ঘর্ষণ মতামত এবং দৃষ্টিভঙ্গির বৈচিত্র্য বজায় রাখতে সাহায্য করে, তিনি চালিয়ে যান।

কিন্তু বৃহৎ ভাষার মডেল (বা এলএলএম) তাদের অনিশ্চয়তা প্রকাশ করতে আগ্রহী নয়, যার ফলশ্রুতিতে আলিখানি "সাইকোফ্যান্টিক আচরণ" বলে অভিহিত করেন। বৃহৎ ভাষার মডেলগুলি তাদের ব্যবহারকারীর "সন্তুষ্টি সর্বাধিক করতে চায়", সে বলে, এবং "কথোপকথনে কোন ঘর্ষণ প্রবর্তন করবেন না, [মডেল] আত্মবিশ্বাসী হোক না কেন" তার বিবৃতিতে।

বৃহৎ ভাষার মডেলের সাথে তাদের হ্যালুসিনেশনের প্রবণতার কারণে অতিরিক্ত সমস্যা দেখা দেয়। এলএলএম "তথ্য তৈরি করে। তারা তৈরি করা তথ্য সম্পর্কে লোকেদের বোঝানোর ক্ষেত্রে খুব ভাল।"

এই সমস্যাগুলি সত্ত্বেও, আলিখানি আরও বলেছেন যে মানুষ এই কৃত্রিম বুদ্ধিমত্তা মডেলগুলির দ্বারা উত্পন্ন "তথ্যগুলির" উপর বেশি নির্ভর করতে প্রবণ, যা "আপনাকে খুশি করার জন্য তথ্য তৈরি করতে পারে।"

এলএলএম-এর উপর ব্যবহারকারীর অত্যধিক নির্ভরতা যা অবদান রাখে তার একটি অংশ হল তাদের "মানব-সদৃশ আচরণ," সে বলে। "এটি আমাদের জ্ঞানকে হেরফের করবে।"

বড় ভাষার মডেলগুলিও তাত্ক্ষণিকভাবে তাদের প্রতিক্রিয়া তৈরি করে বলে মনে হয়, আরেকটি কারণ যা ব্যবহারকারীদের সঠিকতা অনুমান করে। “আমাদের এআই বিজ্ঞানীদের পক্ষে লোকেদের বলা কঠিন, 'হ্যাঁ, এটি সুসংগত। হ্যাঁ, এটি দ্রুত। হ্যাঁ, এটি আপনার শৈলীতে সুর দিচ্ছে। কিন্তু এটা হ্যালুসিনেশন করে,'' আলিখানি বলেছেন।

তাদের নতুন অনুদানের অধীনে, আলিখানি এবং তার দল এমন সরঞ্জামগুলি ডিজাইন করবে যা একটি LLM যে বিবৃতি দেয় সে সম্পর্কে নিশ্চিততার মাত্রা প্রদর্শন করে এবং মানব-এআই কথোপকথনে স্বাস্থ্যকর ঘর্ষণগুলি প্রবর্তন করে।

"আমরা কীভাবে সিস্টেমের আস্থার ভবিষ্যদ্বাণী এবং মৌখিকভাবে বলতে পারি?" আলীখানি জিজ্ঞেস করে। যদি একটি AI মডেল "মাত্র 2% আত্মবিশ্বাসী হয়, তাহলে এটিকে বাহ্যিক করা উচিত।"

"গবেষণার প্রধান লক্ষ্যগুলির মধ্যে একটি হল অনিশ্চয়তার মডেল করা, অনিশ্চয়তাকে বাহ্যিক করা" এবং এলএলএম-কে শেখানো যে কীভাবে সেই অনিশ্চয়তাকে মানব-এআই কথোপকথনের মধ্যে চিত্রিত করা যায়। এটি একটি ব্যবহারকারীর ইন্টারফেসে মডেলের নিশ্চিততার শতকরা স্কোর হিসাবে প্রদর্শিত হতে পারে, অথবা মডেলটি আরও মানুষের মত উপায়ে তার প্রতিক্রিয়াগুলিতে অনিশ্চয়তা প্রতিফলিত করতে পারে।

উদাহরণস্বরূপ, আলিখানি এমন একটি পরিস্থিতির কল্পনা করেন যেখানে একজন রোগী একটি বড় ভাষা মডেলকে তাদের স্বাস্থ্য সম্পর্কে একটি প্রশ্ন জিজ্ঞাসা করতে পারে। এলএলএম-এর বর্তমান প্রজন্ম একটি উত্তর দেওয়ার চেষ্টা করবে, এমনকি যদি সেই উত্তরটি বিপজ্জনক হতে পারে। আলিখানি এমন মডেল তৈরি করার আশা করছেন যা বলতে পারে, “'আমি জানি না। আপনার নার্সকে ডাকতে হবে।'

"এআই-এ জবাবদিহিতার চাবিকাঠি হল দৃঢ়তা," আলিখানি বলেছেন। এই মুহুর্তে, একজন LLM-এর পক্ষে জিজ্ঞাসা করার সময় একটি প্রশ্নের একটি উত্তর এবং কয়েক মিনিট পরে সম্পূর্ণ ভিন্ন উত্তর দেওয়া সাধারণ।

যখন AI ডিজাইন করার কথা আসে যা নিরাপদ এবং দায়বদ্ধ উভয়ই, আগের AI সিস্টেমগুলি যেগুলি সাধারণ কাজগুলিতে সাহায্য করতে পারে "অন্যান্য ডেটাসেটের একটি গুচ্ছ অ্যাক্সেস ছিল না," আলিখানি বলেছেন, "এবং তারা এমন কিছু বলতে পারেনি যা বিপজ্জনক হতে পারে , কারণ এটি তাদের ডেটাতে ছিল না।"

এই ডেটাসেটগুলি ঠিক কী অন্তর্ভুক্ত করে — বা বাদ দেয় — LLM-গুলি "লিঙ্গের প্রতি, কিন্তু সূক্ষ্মতর পক্ষপাতগুলিও কাটিয়ে ওঠার চাবিকাঠি, যেমন আউট-গ্রুপ এবং বিভিন্ন জ্ঞানীয় পক্ষপাত যা [বড় ভাষা] মডেলগুলিতে প্রতিফলিত হয়।"

এখন, আলিখানি এমন মডেল ডিজাইন করার আশা করছেন যা "বিভিন্ন সামর্থ্য এবং পছন্দ" সহ লোকেদের পরিষেবা দেয়৷

"আমরা যে জনসংখ্যার জন্য আমাদের ডেটা আছে তার জন্য আমরা কেবল বিল্ডিং সিস্টেমগুলি রাখতে চাই না, তবে আমরা ভাবি যে আমরা কাকে পিছনে রেখে যাচ্ছি এবং কীভাবে আমরা বৈষম্যের এই বিশাল ব্যবধানটিকে আরও খারাপ করার পরিবর্তে থামাতে পারি?" সে জিজ্ঞাস করলো. "আমার ল্যাবের লক্ষ্য হল সেই দিকে এগিয়ে যাওয়া।"

সময় স্ট্যাম্প:

থেকে আরো মাস্টএলসি