সার্চ ইঞ্জিন সবসময় চ্যাটবট নির্ভুলতা সাহায্য করে না

সার্চ ইঞ্জিন সবসময় চ্যাটবট নির্ভুলতা সাহায্য করে না

সার্চ ইঞ্জিন সবসময় চ্যাটবট নির্ভুলতা সাহায্য করে না PlatoBlockchain ডেটা ইন্টেলিজেন্স। উল্লম্ব অনুসন্ধান. আ.

অনুসন্ধান ইঞ্জিনগুলিতে অ্যাক্সেস একটি AI চ্যাটবটের প্রশ্নের সঠিক এবং আপ-টু-ডেট উত্তর তৈরি করার ক্ষমতাকে উন্নত করার প্রবণতা রাখে না, যার অর্থ গবেষণা অনুসারে, মিথস্ক্রিয়াকে আরও কার্যকর করার জন্য বিকাশকারীদের নতুন কৌশলগুলি খুঁজে বের করতে হবে।

GPT-3.5-এর মতো বড় ল্যাঙ্গুয়েজ মডেলগুলি (LLMs) - ChatGPT-এর ভিত্তি - 2021 সালের সেপ্টেম্বর পর্যন্ত ইন্টারনেট থেকে স্ক্র্যাপ করা পাঠ্যের উপর প্রশিক্ষিত হয়৷ Google এবং Microsoft-এর মতো কোম্পানিগুলি সার্চ ইঞ্জিনগুলির সাহায্যে LLMগুলিকে বর্তমান ওয়েবে জ্ঞানের অ্যাক্সেস দেওয়ার চেষ্টা করে৷ পৃষ্ঠাগুলি

তাদের নিজ নিজ দ্বারা প্রদর্শিত হিসাবে কবি এবং ঠন্ঠন্ চ্যাটবট, গুগল এবং মাইক্রোসফ্ট এখনও অনুসন্ধানের প্রশ্নের সঠিক প্রতিক্রিয়া তৈরি করতে লড়াই করে – যদিও সঠিক উত্তর ইন্টারনেটে কোথাও থাকতে পারে।

"কেউ মনে করতে পারে সার্চ ইঞ্জিন এবং চ্যাটজিপিটি সংযোগ করা একটি নিখুঁত সমাধান, কিন্তু অনুসন্ধান ফলাফলের সীমিত নির্ভুলতার কারণে বাস্তবতা আরও চ্যালেঞ্জিং," এমআইটি'র কম্পিউটার সায়েন্স অ্যান্ড আর্টিফিশিয়াল ইন্টেলিজেন্স ল্যাবরেটরির পোস্টডক্টরাল সহযোগী হোংগিন লুও বলেছেন। নিবন্ধনকর্মী.

লুও ব্যাখ্যা করে যে সার্চ ইঞ্জিনগুলি কীওয়ার্ড-ভিত্তিক পুনরুদ্ধার ব্যবস্থা এবং সবসময় বেশিরভাগ প্রশ্নের সরাসরি উত্তর দেয় না। এছাড়াও, বিভিন্ন ওয়েব পেজে সম্পর্কহীন, পরস্পরবিরোধী বা মিথ্যা তথ্য থাকতে পারে। বিং ভুলভাবে দাবি করেছে অ্যাডলফ হিটলার রেডিওহেড ব্যান্ডের সদস্য ছিলেন একটি অনুসন্ধান ফলাফলে, উদাহরণস্বরূপ।

নেটিজেনরা জল্পিত ত্রুটি একটি দ্বারা সৃষ্ট হতে পারে কিনা পৃষ্ঠা উইকিডাটাতে রেডিওহেড এবং অ্যাডলফ হিটলারের কথা উল্লেখ করা হয়েছে।

যদি বার্ড এবং বিং উপযোগী হতে হয়, তাহলে ডেভেলপারদের খুঁজে বের করতে হবে যে কীভাবে এলএলএমগুলি কোলাহলপূর্ণ, বিভ্রান্তিকর এবং অসামঞ্জস্যপূর্ণ পাঠ্যের সমুদ্র থেকে সবচেয়ে দরকারী তথ্য বের করতে হয়। MIT এবং হংকং এর চাইনিজ ইউনিভার্সিটি থেকে লুও এবং তার সহকর্মীরা বিশ্বাস করেন যে মডেলগুলিকে আরও সূক্ষ্ম সুর করা দরকার যাতে তারা ওয়েব অনুসন্ধানের জন্য কীভাবে প্রতিক্রিয়া তৈরি করতে হয় তার নির্দেশাবলী আরও ভালভাবে অনুসরণ করতে পারে।

দল মেটা এর tweaked এলএলএএমএ, একটি সাত-বিলিয়ন-প্যারামিটার এলএলএম, এটিকে 52,000 জোড়া পাঠ্য-ভিত্তিক নির্দেশাবলী এবং GPT-4 দ্বারা উত্পন্ন সংশ্লিষ্ট প্রতিক্রিয়া সমন্বিত একটি ডাটাবেসে ফাইন-টিউনিং করে। গবেষকরা প্রতিটি নির্দেশের সাথে যুক্ত শীর্ষ পাঁচটি ওয়েব পৃষ্ঠা সমন্বিত একটি পৃথক ডেটাসেটও তৈরি করেছেন এবং সঠিক প্রতিক্রিয়ার সাথে কতটা প্রাসঙ্গিক এবং ঘনিষ্ঠভাবে সারিবদ্ধভাবে উত্সগুলিকে র‌্যাঙ্কিং করে সঠিক প্রতিক্রিয়া তৈরি করতে মডেলটিকে প্রশিক্ষণ দিয়েছেন৷

লুও বলেন, সূক্ষ্ম সুর করা মডেল-ডাকনাম SAIL-7B, যা সার্চ-অগমেন্টেড ইন্সট্রাকশন লার্নিং-এর জন্য দাঁড়ায় – বিভ্রান্তিকর বা অবিশ্বস্ত সার্চ ফলাফল উপেক্ষা করার ক্ষেত্রে ভাল এবং উচ্চ মানের উত্তর তৈরি করে। বিস্তারিত হয়েছে প্রকাশিত [PDF] arXiv-এ প্রকাশিত একটি কাগজে এবং মডেলের কোড GitHub এ আছে। আপনি একটি সঙ্গে খেলতে পারেন ডেমো আলিঙ্গন মুখের উপর হোস্ট করা সিস্টেমের.

“আমাদের মডেল শোরগোল অনুসন্ধান ফলাফল থেকে সহায়ক তথ্য খুঁজে পেতে এবং যতটা সম্ভব সঠিক প্রতিক্রিয়া তৈরি করতে শেখে। ফলস্বরূপ, আমাদের মডেলটি মূল্যবান তথ্যকে আরও ভালভাবে সংক্ষিপ্ত করতে পারে এবং বিভিন্ন অনুসন্ধান প্রশ্নের জন্য আরও ভাল উত্তর তৈরি করতে পারে, এমনকি যখন সার্চ ইঞ্জিনগুলি সেগুলি খুব ভালভাবে পরিচালনা করতে পারে না, "লুও বলেছিলেন।

“আমাদের প্রশিক্ষণে স্পষ্টভাবে একটি পদক্ষেপ অন্তর্ভুক্ত রয়েছে যা স্পষ্ট করে যে প্রতিটি অনুসন্ধান ফলাফল সহায়ক কিনা এবং ভাষা মডেল নির্বাচিত সহায়ক তথ্য অনুসরণ করে। এই প্রক্রিয়াটি সবচেয়ে অবিশ্বস্ত এবং সম্পর্কহীন অনুসন্ধান ফলাফলগুলিকে ফিল্টার করে এবং গড় নির্দেশ-অনুসরণ কর্মক্ষমতা উন্নত করে৷

প্রাথমিক পরীক্ষায় দেখা গেছে যে SAIL-7B জিপিটি-3.5 এবং অন্যান্য মডেলগুলিকে ছাড়িয়ে গেছে যাতে বিভিন্ন কাজের পরিসরে আরও প্যারামিটার রয়েছে। পরীক্ষাগুলি সাধারণ জ্ঞান এবং খোলামেলা প্রশ্নের উত্তর দেওয়ার পাশাপাশি সত্যতা যাচাই এবং ঘৃণাত্মক বক্তব্য সনাক্ত করার ক্ষমতার মূল্যায়ন করেছে। মডেলগুলিকে উইকিপিডিয়া থেকে ওয়েব পৃষ্ঠাগুলি এবং DuckDuckGo-এর অনুসন্ধান ফলাফলগুলিকে প্রার্থীদের প্রতিক্রিয়াগুলির একটি তালিকা থেকে সঠিক উত্তর বাছাই করতে সহায়তা করার জন্য দেওয়া হয়েছিল৷ GPT-4, যাইহোক, এখনও SAIL-7B এর থেকে ভাল ছিল।

"চ্যালেঞ্জ হল যে বড় মডেলের অনেক বেশি শক্তিশালী জ্ঞান, মুখস্থ করার এবং যুক্তি করার ক্ষমতা আছে, তাই আমাদের মডেল এখনও GPT-4 এর মতো ভালো নয়৷ যাইহোক, SAIL-7B হল একটি 'ছোট' মডেলের ধারণার প্রমাণ, এবং আমাদের পরবর্তী ধাপ হল আমাদের প্রস্তাবিত কৌশলের সাহায্যে একটি বড় মডেলকে প্রশিক্ষণ দেওয়া,” লুও আমাদের জানিয়েছেন।

বর্তমান সার্চ-অগমেন্টেড ইন্সট্রাকশন লার্নিং টেকনিকের সাথে সূক্ষ্ম-সুরক্ষিত মডেলগুলি যদিও নিখুঁত নয়। গবেষকরা উল্লেখ করেছেন যে তারা ব্যাখ্যা করতে পারে না কেন একটি অনুসন্ধান ফলাফল বিশ্বাসযোগ্য বা না. তারা ভবিষ্যতে নির্ভুলতা এবং নির্ভরযোগ্যতা বাড়ানোর জন্য আরেকটি কৌশল নিয়ে আসবে বলে আশাবাদী। ®

সময় স্ট্যাম্প:

থেকে আরো নিবন্ধনকর্মী