أفضل الممارسات لنشر نماذج اللغة ذكاء بيانات PlatoBlockchain. البحث العمودي. عاي.

أفضل الممارسات لنشر نماذج اللغة

أفضل الممارسات لنشر نماذج اللغة

قامت Cohere وOpenAI وAI21 Labs بتطوير مجموعة أولية من أفضل الممارسات المطبقة على أي مؤسسة تقوم بتطوير أو نشر نماذج لغوية كبيرة. أجهزة الكمبيوتر التي يمكنها القراءة والكتابة موجودة هنا، ولديها القدرة على التأثير بشكل أساسي على الحياة اليومية. إن مستقبل التفاعل بين الإنسان والآلة مليء بالاحتمالات والوعود، ولكن أي تكنولوجيا قوية تحتاج إلى نشر دقيق.

يمثل البيان المشترك أدناه خطوة نحو بناء مجتمع لمواجهة التحديات العالمية التي يمثلها تقدم الذكاء الاصطناعي، ونحن نشجع المنظمات الأخرى التي ترغب في المشاركة على التواصل معنا.

توصية مشتركة لنشر نموذج اللغة

نوصي بالعديد من المبادئ الأساسية لمساعدة مزودي نماذج اللغات الكبيرة (LLM) على التخفيف من مخاطر هذه التكنولوجيا من أجل تحقيق وعدها الكامل بزيادة القدرات البشرية.

بينما تم تطوير هذه المبادئ على وجه التحديد بناءً على خبرتنا في توفير LLM من خلال واجهة برمجة التطبيقات ، نأمل أن تكون مفيدة بغض النظر عن استراتيجية الإصدار (مثل المصادر المفتوحة أو الاستخدام داخل الشركة). نتوقع أن تتغير هذه التوصيات بشكل كبير بمرور الوقت لأن الاستخدامات التجارية لـ LLM واعتبارات السلامة المصاحبة جديدة ومتطورة. نحن نتعلم بنشاط ونتعامل مع قيود LLM وسبل سوء الاستخدام ، وسنقوم بتحديث هذه المبادئ والممارسات بالتعاون مع المجتمع الأوسع بمرور الوقت.

نحن نشارك هذه المبادئ على أمل أن يتعلم مقدمو LLM الآخرون منها ويتبنوها ، ولتعزيز المناقشة العامة حول تطوير ونشر LLM.

يحظر سوء الاستخدام


نشر إرشادات الاستخدام وشروط الاستخدام LLMs بطريقة تحظر الضرر المادي للأفراد والمجتمعات والمجتمع مثل البريد العشوائي أو الاحتيال أو التسويق الماكر. يجب أن تحدد إرشادات الاستخدام أيضًا المجالات التي يتطلب فيها استخدام LLM تدقيقًا إضافيًا وتحظر حالات الاستخدام عالية الخطورة غير المناسبة ، مثل تصنيف الأشخاص بناءً على الخصائص المحمية.


بناء الأنظمة والبنية التحتية لفرض إرشادات الاستخدام. قد يشمل ذلك حدود المعدل ، وتصفية المحتوى ، والموافقة على التطبيق قبل الوصول إلى الإنتاج ، ومراقبة النشاط الشاذ ، وعمليات التخفيف الأخرى.

التخفيف من الضرر غير المقصود


استباقي التخفيف من سلوك النموذج الضار. تشمل أفضل الممارسات تقييمًا نموذجيًا شاملاً لتقييم القيود بشكل صحيح ، وتقليل المصادر المحتملة للتحيز في هيئة التدريب ، وتقنيات لتقليل السلوك غير الآمن مثل من خلال التعلم من ردود الفعل البشرية.


توثيق نقاط الضعف والضعف المعروفة، مثل التحيز أو القدرة على إنتاج رمز غير آمن ، لأنه في بعض الحالات لا يمكن لأي درجة من الإجراءات الوقائية أن تقضي تمامًا على احتمال حدوث ضرر غير مقصود. يجب أن تتضمن التوثيق أيضًا أفضل ممارسات السلامة النموذجية وحالة الاستخدام الخاصة.

نتعاون بشكل مدروس مع أصحاب المصلحة


كوِّن فرقًا ذات خلفيات متنوعة ويطلب مدخلات واسعة. هناك حاجة إلى وجهات نظر متنوعة لتوصيف ومعالجة كيفية عمل النماذج اللغوية في تنوع العالم الحقيقي ، حيث إذا لم يتم التحقق منها فقد تعزز التحيزات أو تفشل في العمل مع بعض المجموعات.


الكشف علنًا عن الدروس المستفادة فيما يتعلق بسلامة LLM وسوء الاستخدام من أجل تمكين التبني على نطاق واسع والمساعدة في التكرار عبر الصناعة على أفضل الممارسات.


تعامل مع كل العمالة في سلسلة توريد نموذج اللغة باحترام. على سبيل المثال ، يجب أن يكون لدى مقدمي الخدمة معايير عالية لظروف عمل أولئك الذين يقومون بمراجعة مخرجات النموذج داخليًا وإلزام البائعين بمعايير محددة جيدًا (على سبيل المثال ، ضمان قدرة واضعي الملصقات على الانسحاب من مهمة معينة).

بصفتنا موفري LLM ، يمثل نشر هذه المبادئ خطوة أولى في التوجيه التعاوني لتطوير ونشر نموذج لغة كبيرة أكثر أمانًا. نحن متحمسون لمواصلة العمل مع بعضنا البعض ومع الأطراف الأخرى لتحديد الفرص الأخرى لتقليل الأضرار غير المقصودة ومنع الاستخدام الضار لنماذج اللغة.

تحميل ك PDF

الدعم من المنظمات الأخرى

"على الرغم من أن حاملي شهادة الماجستير في القانون يحملون الكثير من الأمل، إلا أن لديهم مشكلات كبيرة تتعلق بالسلامة والتي تحتاج إلى العمل عليها. وتعد أفضل الممارسات هذه بمثابة خطوة مهمة في تقليل أضرار هذه النماذج وتعظيم فوائدها المحتملة.

- أنثروبي

"نظرًا لأن النماذج اللغوية الكبيرة (LLMs) أصبحت قوية ومعبرة بشكل متزايد، فقد أصبح تخفيف المخاطر ذا أهمية متزايدة. ونحن نرحب بهذه الجهود وغيرها للسعي بشكل استباقي إلى تخفيف الأضرار وتسليط الضوء على المجالات التي تتطلب المزيد من العناية للمستخدمين. إن المبادئ الموضحة هنا تمثل مساهمة مهمة في الحوار العالمي."

—جون بانسيمر، مدير مشروع CyberAI وزميل أول في مركز الأمن والتكنولوجيا الناشئة (CSET)

"تؤكد Google أهمية الاستراتيجيات الشاملة في تحليل بيانات النموذج والتدريب للتخفيف من مخاطر الضرر والتحيز والتضليل. إنها خطوة مدروسة اتخذها مقدمو خدمات الذكاء الاصطناعي لتعزيز المبادئ والوثائق المتعلقة بسلامة الذكاء الاصطناعي.

—Google Cloud Platform (GCP)

"إن سلامة النماذج الأساسية، مثل نماذج اللغات الكبيرة، تشكل مصدر قلق اجتماعي متزايد. نحن نشيد بـ Cohere وOpenAI وAI21 Labs لاتخاذهم الخطوة الأولى لتحديد مبادئ عالية المستوى للتطوير والنشر المسؤول من وجهة نظر مطوري النماذج. لا يزال هناك الكثير من العمل الذي يتعين القيام به، ونعتقد أنه من الضروري إشراك المزيد من الأصوات من الأوساط الأكاديمية والصناعة والمجتمع المدني لتطوير مبادئ ومعايير مجتمعية أكثر تفصيلاً. كما ذكرنا في حديثنا بلوق وظيفةليست النتيجة النهائية فقط هي التي تهم، بل شرعية العملية هي التي تهم."

—بيرسي ليانج، مدير مركز ستانفورد لأبحاث نماذج الأساس (CRFM)

شاركنا

إذا كنت تقوم بتطوير نماذج لغوية أو تعمل على التخفيف من مخاطرها، فنحن نرغب في التحدث معك. يرجى التواصل على bestpractices@openai.com.

الطابع الزمني:

اكثر من OpenAI

GPT-4

عقدة المصدر: 1813337
الطابع الزمني: مارس 14 ،2023