زبان کے ماڈلز PlatoBlockchain ڈیٹا انٹیلی جنس کی تعیناتی کے لیے بہترین طرز عمل۔ عمودی تلاش۔ عی

زبان کے ماڈلز کی تعیناتی کے لیے بہترین طرز عمل

زبان کے ماڈلز کی تعیناتی کے لیے بہترین طرز عمل

Cohere, OpenAI, and AI21 Labs have developed a preliminary set of best practices applicable to any organization developing or deploying large language models. Computers that can read and write are here, and they have the potential to fundamentally impact daily life. The future of human–machine interaction is full of possibility and promise, but any powerful technology needs careful deployment.

The joint statement below represents a step towards building a community to address the global challenges presented by AI progress, and we encourage other organizations who would like to participate to get in touch.

زبان کے ماڈل کی تعیناتی کے لیے مشترکہ سفارش

ہم کئی کلیدی اصولوں کی سفارش کر رہے ہیں تاکہ بڑے لینگوئج ماڈلز (LLMs) فراہم کرنے والوں کو اس ٹیکنالوجی کے خطرات کو کم کرنے میں مدد مل سکے تاکہ انسانی صلاحیتوں کو بڑھانے کے اپنے مکمل وعدے کو حاصل کیا جا سکے۔

اگرچہ یہ اصول خاص طور پر API کے ذریعے LLM فراہم کرنے کے ہمارے تجربے کی بنیاد پر تیار کیے گئے ہیں، ہمیں امید ہے کہ وہ ریلیز کی حکمت عملی (جیسے اوپن سورسنگ یا کمپنی کے اندر استعمال) سے قطع نظر مفید ثابت ہوں گے۔ ہم توقع کرتے ہیں کہ یہ سفارشات وقت کے ساتھ ساتھ نمایاں طور پر تبدیل ہوں گی کیونکہ LLMs کے تجارتی استعمال اور اس کے ساتھ حفاظتی تحفظات نئے اور ارتقا پذیر ہیں۔ ہم فعال طور پر ایل ایل ایم کی حدود اور غلط استعمال کے طریقوں کے بارے میں سیکھ رہے ہیں اور ان کو حل کر رہے ہیں، اور وقت کے ساتھ ساتھ وسیع تر کمیونٹی کے ساتھ مل کر ان اصولوں اور طریقوں کو اپ ڈیٹ کریں گے۔

ہم ان اصولوں کو اس امید کے ساتھ شیئر کر رہے ہیں کہ دوسرے LLM فراہم کنندگان ان سے سیکھیں اور اپنائیں، اور LLM کی ترقی اور تعیناتی پر عوامی بحث کو آگے بڑھا سکیں۔

غلط استعمال سے منع کریں۔


استعمال کے رہنما خطوط اور استعمال کی شرائط شائع کریں۔ LLMs کے اس طریقے سے جو افراد، کمیونٹیز اور معاشرے کو مادی نقصان پہنچانے سے منع کرتا ہے جیسے کہ اسپام، فراڈ، یا آسٹروٹرفنگ کے ذریعے۔ استعمال کے رہنما خطوط میں ایسے ڈومینز کی بھی وضاحت کرنی چاہیے جہاں LLM کے استعمال کے لیے اضافی جانچ پڑتال کی ضرورت ہوتی ہے اور ایسے ہائی رسک استعمال کے کیسز کو روکنا چاہیے جو مناسب نہیں ہیں، جیسے کہ محفوظ خصوصیات کی بنیاد پر لوگوں کی درجہ بندی کرنا۔


استعمال کے رہنما خطوط کو نافذ کرنے کے لیے نظام اور بنیادی ڈھانچہ بنائیں. اس میں شرح کی حدیں، مواد کی فلٹرنگ، پروڈکشن تک رسائی سے پہلے درخواست کی منظوری، غیر معمولی سرگرمی کی نگرانی، اور دیگر تخفیف شامل ہو سکتے ہیں۔

غیر ارادی نقصان کو کم کریں۔


مؤثر ماڈل کے رویے کو فعال طور پر کم کریں۔. بہترین طریقوں میں حدود کا صحیح اندازہ لگانے کے لیے جامع ماڈل کی تشخیص، تربیتی کارپورا میں تعصب کے ممکنہ ذرائع کو کم سے کم کرنا، اور غیر محفوظ رویے کو کم کرنے کی تکنیک جیسے انسانی تاثرات سے سیکھنا شامل ہے۔


معلوم کمزوریوں اور کمزوریوں کی دستاویز کریں۔جیسا کہ تعصب یا غیر محفوظ کوڈ تیار کرنے کی صلاحیت، جیسا کہ بعض صورتوں میں کسی بھی حد تک روک تھام کی کارروائی غیر ارادی نقصان کے امکانات کو مکمل طور پر ختم نہیں کر سکتی۔ دستاویزات میں ماڈل اور استعمال کے معاملے میں مخصوص حفاظت کے بہترین طریقے بھی شامل ہونے چاہئیں۔

اسٹیک ہولڈرز کے ساتھ سوچ سمجھ کر تعاون کریں۔


متنوع پس منظر کے ساتھ ٹیمیں بنائیں اور وسیع ان پٹ طلب کریں۔ زبان کے ماڈلز حقیقی دنیا کے تنوع میں کس طرح کام کریں گے اس کی خصوصیت اور توجہ دینے کے لیے متنوع نقطہ نظر کی ضرورت ہے، جہاں اگر چیک نہ کیا جائے تو وہ تعصبات کو تقویت دے سکتے ہیں یا کچھ گروہوں کے لیے کام کرنے میں ناکام ہو سکتے ہیں۔


LLM کی حفاظت اور غلط استعمال سے متعلق سیکھے گئے اسباق کو عوامی طور پر ظاہر کریں۔ تاکہ وسیع پیمانے پر اپنانے اور بہترین طریقوں پر کراس انڈسٹری کی تکرار میں مدد کی جاسکے۔


لینگویج ماڈل سپلائی چین میں تمام لیبر کے ساتھ احترام کے ساتھ برتاؤ کریں۔. مثال کے طور پر، فراہم کنندگان کے پاس گھر کے اندر ماڈل آؤٹ پٹس کا جائزہ لینے والوں کے کام کے حالات کے لیے اعلیٰ معیارات ہونے چاہئیں اور وینڈرز کو اچھی طرح سے متعین معیارات پر رکھنا چاہیے (مثلاً یہ یقینی بنانا کہ لیبلرز دیئے گئے کام سے آپٹ آؤٹ کرنے کے قابل ہوں)۔

LLM فراہم کنندگان کے طور پر، ان اصولوں کو شائع کرنا باہمی طور پر محفوظ بڑے لینگویج ماڈل کی ترقی اور تعیناتی کی رہنمائی کے لیے پہلا قدم ہے۔ ہم زبان کے ماڈلز کے غیر ارادی نقصانات کو کم کرنے اور اسے روکنے کے لیے دوسرے مواقع کی نشاندہی کرنے کے لیے ایک دوسرے کے ساتھ اور دوسری جماعتوں کے ساتھ کام جاری رکھنے کے لیے پرجوش ہیں۔

ڈاؤن لوڈ کے طور پر پی ڈی ایف

Support from other organizations

“While LLMs hold a lot of promise, they have significant inherent safety issues which need to be worked on. These best practices serve as an important step in minimizing the harms of these models and maximizing their potential benefits.”

—Anthropic

“As large language models (LLMs) have become increasingly powerful and expressive, risk mitigation becomes increasingly important. We welcome these and other efforts to proactively seek to mitigate harms and highlight to users areas requiring extra diligence. The principles outlined here are an important contribution to the global conversation.”

—John Bansemer, Director of the CyberAI Project and Senior Fellow, Center for Security and Emerging Technology (CSET)

“Google affirms the importance of comprehensive strategies in analyzing model and training data to mitigate the risks of harm, bias, and misrepresentation. It is a thoughtful step taken by these AI providers to promote the principles and documentation towards AI safety.”

—Google Cloud Platform (GCP)

“The safety of foundation models, such as large language models, is a growing social concern. We commend Cohere, OpenAI, and AI21 Labs for taking a first step to outline high-level principles for responsible development and deployment from the perspective of model developers. There is still much work to be done, and we believe it is essential to engage more voices from academia, industry, and civil society to develop more detailed principles and community norms. As we state in our recent بلاگ پوسٹ, it is not just the end result but the legitimacy of the process that matters.”

—Percy Liang, Director of the Stanford Center for Research on Foundation Models (CRFM)

شامل ہونا

If you’re developing language models or are working to mitigate their risks, we’d love to talk with you. Please reach out at bestpractices@openai.com.

ٹائم اسٹیمپ:

سے زیادہ اوپنائی

GPT-4

ماخذ نوڈ: 1813337
ٹائم اسٹیمپ: مارچ 14، 2023