ল্যাংগুয়েজ মডেল প্লেটোব্লকচেন ডেটা ইন্টেলিজেন্স স্থাপনের জন্য সর্বোত্তম অনুশীলন। উল্লম্ব অনুসন্ধান. আ.

ভাষা মডেল স্থাপনের জন্য সর্বোত্তম অনুশীলন

ভাষা মডেল স্থাপনের জন্য সর্বোত্তম অনুশীলন

Cohere, OpenAI, এবং AI21 ল্যাবগুলি বৃহৎ ভাষার মডেলগুলি বিকাশ বা স্থাপনকারী যে কোনও সংস্থার জন্য প্রযোজ্য সর্বোত্তম অনুশীলনের একটি প্রাথমিক সেট তৈরি করেছে৷ যে কম্পিউটারগুলি পড়তে এবং লিখতে পারে সেগুলি এখানে রয়েছে এবং তাদের দৈনন্দিন জীবনকে মৌলিকভাবে প্রভাবিত করার সম্ভাবনা রয়েছে৷ মানব-মেশিন মিথস্ক্রিয়ার ভবিষ্যত সম্ভাবনা এবং প্রতিশ্রুতিতে পূর্ণ, তবে যে কোনও শক্তিশালী প্রযুক্তির যত্নশীল স্থাপনা প্রয়োজন।

নীচের যৌথ বিবৃতিটি AI অগ্রগতি দ্বারা উপস্থাপিত বিশ্বব্যাপী চ্যালেঞ্জগুলি মোকাবেলা করার জন্য একটি সম্প্রদায় গঠনের দিকে একটি পদক্ষেপের প্রতিনিধিত্ব করে এবং আমরা অন্যান্য সংস্থাগুলিকে উত্সাহিত করি যারা যোগাযোগ করতে অংশগ্রহণ করতে চায়৷

ভাষা মডেল স্থাপনের জন্য যৌথ সুপারিশ

মানুষের ক্ষমতা বাড়ানোর সম্পূর্ণ প্রতিশ্রুতি অর্জনের জন্য আমরা এই প্রযুক্তির ঝুঁকি কমাতে বৃহৎ ভাষা মডেল (LLMs) প্রদানকারীদের সাহায্য করার জন্য বেশ কয়েকটি মূল নীতির সুপারিশ করছি।

যদিও এই নীতিগুলি বিশেষভাবে একটি API এর মাধ্যমে LLM প্রদানের আমাদের অভিজ্ঞতার উপর ভিত্তি করে তৈরি করা হয়েছিল, আমরা আশা করি যে তারা রিলিজ কৌশল নির্বিশেষে কার্যকর হবে (যেমন ওপেন-সোর্সিং বা কোম্পানির মধ্যে ব্যবহার)। আমরা আশা করি যে এই সুপারিশগুলি সময়ের সাথে সাথে উল্লেখযোগ্যভাবে পরিবর্তিত হবে কারণ LLM-এর বাণিজ্যিক ব্যবহার এবং এর সাথে নিরাপত্তা বিবেচনাগুলি নতুন এবং বিকশিত। আমরা সক্রিয়ভাবে LLM সীমাবদ্ধতা এবং অপব্যবহারের উপায়গুলি সম্পর্কে শিখছি এবং মোকাবেলা করছি এবং সময়ের সাথে সাথে বৃহত্তর সম্প্রদায়ের সাথে সহযোগিতায় এই নীতিগুলি এবং অনুশীলনগুলি আপডেট করব৷

আমরা এই নীতিগুলি শেয়ার করছি এই আশায় যে অন্যান্য LLM প্রদানকারীরা সেগুলি থেকে শিখতে পারে এবং গ্রহণ করতে পারে এবং LLM বিকাশ এবং স্থাপনার বিষয়ে জনসাধারণের আলোচনাকে এগিয়ে নিতে পারে৷

অপব্যবহার নিষিদ্ধ করুন


ব্যবহারের নির্দেশিকা এবং ব্যবহারের শর্তাবলী প্রকাশ করুন LLM-এর এমন একটি উপায় যা ব্যক্তি, সম্প্রদায় এবং সমাজের বস্তুগত ক্ষতি যেমন স্প্যাম, জালিয়াতি বা অ্যাস্ট্রোটার্ফিংয়ের মাধ্যমে নিষিদ্ধ করে। ব্যবহারের নির্দেশিকাগুলিতে এমন ডোমেনগুলিও নির্দিষ্ট করা উচিত যেখানে LLM ব্যবহারের জন্য অতিরিক্ত পরীক্ষা-নিরীক্ষার প্রয়োজন হয় এবং উচ্চ-ঝুঁকির ব্যবহার-কেসগুলিকে নিষিদ্ধ করে যা উপযুক্ত নয়, যেমন সুরক্ষিত বৈশিষ্ট্যের ভিত্তিতে লোকেদের শ্রেণীবদ্ধ করা।


ব্যবহারের নির্দেশিকা কার্যকর করার জন্য সিস্টেম এবং অবকাঠামো তৈরি করুন. এর মধ্যে রেট লিমিট, কন্টেন্ট ফিল্টারিং, প্রোডাকশন অ্যাক্সেসের আগে অ্যাপ্লিকেশান অনুমোদন, অস্বাভাবিক কার্যকলাপের জন্য পর্যবেক্ষণ এবং অন্যান্য প্রশমন অন্তর্ভুক্ত থাকতে পারে।

অনিচ্ছাকৃত ক্ষতি প্রশমিত করুন


সক্রিয়ভাবে ক্ষতিকারক মডেল আচরণ প্রশমিত. সর্বোত্তম অনুশীলনগুলির মধ্যে রয়েছে সীমাবদ্ধতাগুলি সঠিকভাবে মূল্যায়ন করার জন্য ব্যাপক মডেল মূল্যায়ন, প্রশিক্ষণ সংস্থায় পক্ষপাতের সম্ভাব্য উত্সগুলি হ্রাস করা, এবং মানুষের প্রতিক্রিয়া থেকে শেখার মাধ্যমে অনিরাপদ আচরণ কমানোর কৌশলগুলি।


পরিচিত দুর্বলতা এবং দুর্বলতা নথি, যেমন পক্ষপাতিত্ব বা অনিরাপদ কোড তৈরি করার ক্ষমতা, যেমন কিছু ক্ষেত্রে প্রতিরোধমূলক পদক্ষেপের কোনো মাত্রাই অনিচ্ছাকৃত ক্ষতির সম্ভাবনাকে সম্পূর্ণরূপে নির্মূল করতে পারে না। ডকুমেন্টেশনে মডেল এবং ব্যবহার-কেস-নির্দিষ্ট নিরাপত্তার সর্বোত্তম অনুশীলন অন্তর্ভুক্ত করা উচিত।

ভেবেচিন্তে স্টেকহোল্ডারদের সাথে সহযোগিতা করুন


বিভিন্ন ব্যাকগ্রাউন্ড সহ দল তৈরি করুন এবং বিস্তৃত ইনপুট অনুরোধ. বাস্তব জগতের বৈচিত্র্যের মধ্যে ভাষার মডেলগুলি কীভাবে কাজ করবে তা চিহ্নিত করতে এবং সম্বোধন করার জন্য বিভিন্ন দৃষ্টিভঙ্গির প্রয়োজন, যেখানে যদি চেক না করা হয় তবে তারা পক্ষপাতকে শক্তিশালী করতে পারে বা কিছু গোষ্ঠীর জন্য কাজ করতে ব্যর্থ হতে পারে।


এলএলএম সুরক্ষা এবং অপব্যবহার সম্পর্কে শেখা পাঠগুলি সর্বজনীনভাবে প্রকাশ করুন সর্বোত্তম অনুশীলনের উপর ক্রস-ইন্ডাস্ট্রি পুনরাবৃত্তির সাথে ব্যাপকভাবে গ্রহণ এবং সাহায্য করার জন্য।


ভাষা মডেল সরবরাহ শৃঙ্খলে সমস্ত শ্রমকে সম্মানের সাথে বিবেচনা করুন. উদাহরণ স্বরূপ, প্রোভাইডারদের কাজের অবস্থার জন্য উচ্চ মান থাকা উচিত যারা ইন-হাউস মডেলের আউটপুট পর্যালোচনা করে এবং বিক্রেতাদেরকে সুনির্দিষ্ট মানদণ্ডে ধরে রাখে (যেমন, নিশ্চিত করা যে লেবেলাররা একটি প্রদত্ত কাজ থেকে অপ্ট আউট করতে সক্ষম হয়)।

LLM প্রদানকারী হিসাবে, এই নীতিগুলি প্রকাশ করা নিরাপদ বৃহৎ ভাষা মডেল উন্নয়ন এবং স্থাপনার সহযোগিতামূলকভাবে নির্দেশনার প্রথম পদক্ষেপের প্রতিনিধিত্ব করে। আমরা ভাষা মডেলের অনিচ্ছাকৃত ক্ষতি কমাতে এবং দূষিত ব্যবহার প্রতিরোধ করার জন্য অন্যান্য সুযোগগুলি চিহ্নিত করতে একে অপরের সাথে এবং অন্যান্য পক্ষের সাথে কাজ চালিয়ে যেতে উত্তেজিত।

PDF হিসাবে ডাউনলোড করুন

অন্যান্য সংস্থা থেকে সমর্থন

“যদিও এলএলএমগুলি অনেক প্রতিশ্রুতি রাখে, তাদের মধ্যে উল্লেখযোগ্য অন্তর্নিহিত সুরক্ষা সমস্যা রয়েছে যার উপর কাজ করা দরকার। এই সর্বোত্তম অনুশীলনগুলি এই মডেলগুলির ক্ষতিগুলি হ্রাস করার এবং তাদের সম্ভাব্য সুবিধাগুলি সর্বাধিক করার জন্য একটি গুরুত্বপূর্ণ পদক্ষেপ হিসাবে কাজ করে।"

- নৃতাত্ত্বিক

“যেহেতু বৃহৎ ভাষা মডেল (LLM) ক্রমশ শক্তিশালী এবং অভিব্যক্তিপূর্ণ হয়ে উঠেছে, ঝুঁকি প্রশমন ক্রমশ গুরুত্বপূর্ণ হয়ে উঠেছে। আমরা এইগুলি এবং অন্যান্য প্রচেষ্টাকে স্বাগত জানাই যাতে ক্ষতিগুলি প্রশমিত করা যায় এবং ব্যবহারকারীদের কাছে অতিরিক্ত পরিশ্রমের প্রয়োজন হয় এমন ক্ষেত্রগুলিকে হাইলাইট করার চেষ্টা করা যায়৷ এখানে বর্ণিত নীতিগুলি বিশ্বব্যাপী কথোপকথনে একটি গুরুত্বপূর্ণ অবদান।"

—জন ব্যানসেমার, সাইবারএআই প্রকল্পের পরিচালক এবং সিনিয়র ফেলো, সেন্টার ফর সিকিউরিটি অ্যান্ড এমার্জিং টেকনোলজি (সিএসইটি)

“Google ক্ষতি, পক্ষপাতিত্ব এবং ভুল উপস্থাপনের ঝুঁকি কমাতে মডেল এবং প্রশিক্ষণ ডেটা বিশ্লেষণে ব্যাপক কৌশলের গুরুত্ব নিশ্চিত করে৷ AI সুরক্ষার জন্য নীতি এবং ডকুমেন্টেশন প্রচার করার জন্য এই AI প্রদানকারীদের দ্বারা নেওয়া একটি চিন্তাশীল পদক্ষেপ।"

—গুগল ক্লাউড প্ল্যাটফর্ম (GCP)

"ফাউন্ডেশন মডেলের নিরাপত্তা, যেমন বড় ভাষা মডেল, একটি ক্রমবর্ধমান সামাজিক উদ্বেগ। আমরা Cohere, OpenAI, এবং AI21 ল্যাবগুলিকে মডেল ডেভেলপারদের দৃষ্টিকোণ থেকে দায়িত্বশীল উন্নয়ন এবং স্থাপনার জন্য উচ্চ-স্তরের নীতিগুলি রূপরেখার জন্য প্রথম পদক্ষেপ নেওয়ার জন্য প্রশংসা করি। এখনও অনেক কাজ করা বাকি আছে, এবং আমরা বিশ্বাস করি যে আরও বিশদ নীতি এবং সম্প্রদায়ের নিয়মগুলি বিকাশের জন্য একাডেমিয়া, শিল্প এবং সুশীল সমাজ থেকে আরও বেশি কণ্ঠকে যুক্ত করা অপরিহার্য। আমরা আমাদের সাম্প্রতিক হিসাবে বর্ণনা ব্লগ পোস্ট, এটি শুধুমাত্র শেষ ফলাফল নয় কিন্তু প্রক্রিয়াটির বৈধতা গুরুত্বপূর্ণ।"

—পার্সি লিয়াং, স্ট্যানফোর্ড সেন্টার ফর রিসার্চ অন ফাউন্ডেশন মডেলের পরিচালক (CRFM)

জড়িত

আপনি যদি ভাষার মডেল তৈরি করেন বা তাদের ঝুঁকি কমানোর জন্য কাজ করেন, আমরা আপনার সাথে কথা বলতে চাই। এ পৌঁছানোর অনুগ্রহ করে bestpractices@openai.com.

সময় স্ট্যাম্প:

থেকে আরো OpenAI