भाषा मॉडल प्लेटोब्लॉकचेन डेटा इंटेलिजेंस को तैनात करने के लिए सर्वोत्तम अभ्यास। लंबवत खोज. ऐ.

भाषा मॉडल की तैनाती के लिए सर्वोत्तम अभ्यास

भाषा मॉडल की तैनाती के लिए सर्वोत्तम अभ्यास

Cohere, OpenAI और AI21 Labs ने बड़े भाषा मॉडल विकसित करने या तैनात करने वाले किसी भी संगठन के लिए लागू सर्वोत्तम प्रथाओं का एक प्रारंभिक सेट विकसित किया है। कंप्यूटर जो पढ़ और लिख सकते हैं, वे यहां हैं, और उनमें दैनिक जीवन को मौलिक रूप से प्रभावित करने की क्षमता है। मानव-मशीन संपर्क का भविष्य संभावनाओं और संभावनाओं से भरा है, लेकिन किसी भी शक्तिशाली तकनीक को सावधानीपूर्वक परिनियोजन की आवश्यकता है।

नीचे दिया गया संयुक्त बयान एआई प्रगति द्वारा प्रस्तुत वैश्विक चुनौतियों का समाधान करने के लिए एक समुदाय के निर्माण की दिशा में एक कदम का प्रतिनिधित्व करता है, और हम अन्य संगठनों को प्रोत्साहित करते हैं जो संपर्क में रहने के लिए भाग लेना चाहते हैं।

भाषा मॉडल परिनियोजन के लिए संयुक्त अनुशंसा

हम बड़े भाषा मॉडल (एलएलएम) के प्रदाताओं को मानवीय क्षमताओं को बढ़ाने के अपने पूर्ण वादे को प्राप्त करने के लिए इस तकनीक के जोखिमों को कम करने में मदद करने के लिए कई प्रमुख सिद्धांतों की सिफारिश कर रहे हैं।

हालांकि इन सिद्धांतों को विशेष रूप से एक एपीआई के माध्यम से एलएलएम प्रदान करने के हमारे अनुभव के आधार पर विकसित किया गया था, हम आशा करते हैं कि रिलीज रणनीति (जैसे ओपन-सोर्सिंग या किसी कंपनी के भीतर उपयोग) के बावजूद वे उपयोगी होंगे। हम उम्मीद करते हैं कि ये सिफारिशें समय के साथ महत्वपूर्ण रूप से बदल जाएंगी क्योंकि एलएलएम के व्यावसायिक उपयोग और साथ में सुरक्षा संबंधी विचार नए और विकसित हो रहे हैं। हम एलएलएम की सीमाओं और दुरुपयोग के रास्ते के बारे में सक्रिय रूप से सीख रहे हैं और संबोधित कर रहे हैं, और समय के साथ व्यापक समुदाय के सहयोग से इन सिद्धांतों और प्रथाओं को अपडेट करेंगे।

हम इन सिद्धांतों को इस उम्मीद में साझा कर रहे हैं कि अन्य एलएलएम प्रदाता उनसे सीख सकें और उन्हें अपना सकें, और एलएलएम विकास और परिनियोजन पर सार्वजनिक चर्चा को आगे बढ़ा सकें।

दुरुपयोग को रोकें


उपयोग दिशानिर्देश और उपयोग की शर्तें प्रकाशित करें एलएलएम के इस तरीके से जो स्पैम, धोखाधड़ी, या एस्ट्रोटर्फिंग के माध्यम से व्यक्तियों, समुदायों और समाज को भौतिक नुकसान को प्रतिबंधित करता है। उपयोग दिशानिर्देशों को उन डोमेन को भी निर्दिष्ट करना चाहिए जहां एलएलएम उपयोग के लिए अतिरिक्त जांच की आवश्यकता होती है और उच्च जोखिम वाले उपयोग-मामलों को प्रतिबंधित करते हैं जो उचित नहीं हैं, जैसे संरक्षित विशेषताओं के आधार पर लोगों को वर्गीकृत करना।


उपयोग दिशानिर्देशों को लागू करने के लिए सिस्टम और बुनियादी ढांचे का निर्माण करें. इसमें दर सीमा, सामग्री फ़िल्टरिंग, उत्पादन पहुंच से पहले आवेदन अनुमोदन, विषम गतिविधि के लिए निगरानी और अन्य शमन शामिल हो सकते हैं।

अनजाने में हुए नुकसान को कम करें


हानिकारक मॉडल व्यवहार को सक्रिय रूप से कम करें. सर्वोत्तम प्रथाओं में सीमाओं का ठीक से आकलन करने के लिए व्यापक मॉडल मूल्यांकन, प्रशिक्षण निगम में पूर्वाग्रह के संभावित स्रोतों को कम करना, और असुरक्षित व्यवहार को कम करने की तकनीक जैसे मानव प्रतिक्रिया से सीखना शामिल है।


दस्तावेज़ ज्ञात कमजोरियों और कमजोरियों, जैसे पूर्वाग्रह या असुरक्षित कोड उत्पन्न करने की क्षमता, क्योंकि कुछ मामलों में निवारक कार्रवाई की कोई भी डिग्री अनपेक्षित नुकसान की संभावना को पूरी तरह से समाप्त नहीं कर सकती है। दस्तावेज़ीकरण में मॉडल और उपयोग-केस-विशिष्ट सुरक्षा सर्वोत्तम अभ्यास भी शामिल होने चाहिए।

हितधारकों के साथ सोच-समझकर सहयोग करें


विविध पृष्ठभूमि वाली टीम बनाएं और व्यापक इनपुट मांगें। वास्तविक दुनिया की विविधता में भाषा के मॉडल कैसे काम करेंगे, इसे चिह्नित करने और संबोधित करने के लिए विविध दृष्टिकोणों की आवश्यकता है, जहां अनियंत्रित होने पर वे पूर्वाग्रहों को सुदृढ़ कर सकते हैं या कुछ समूहों के लिए काम करने में विफल हो सकते हैं।


एलएलएम सुरक्षा और दुरुपयोग के बारे में सीखे गए सबक का सार्वजनिक रूप से खुलासा करें व्यापक रूप से अपनाने और सर्वोत्तम प्रथाओं पर क्रॉस-इंडस्ट्री पुनरावृत्ति में मदद करने के लिए।


भाषा मॉडल आपूर्ति श्रृंखला में सभी श्रम के साथ सम्मान के साथ व्यवहार करें. उदाहरण के लिए, प्रदाताओं के पास इन-हाउस मॉडल आउटपुट की समीक्षा करने वालों की कामकाजी परिस्थितियों के लिए उच्च मानक होने चाहिए और वेंडरों को अच्छी तरह से निर्दिष्ट मानकों (उदाहरण के लिए, यह सुनिश्चित करना कि लेबलर किसी दिए गए कार्य से बाहर निकलने में सक्षम हैं)।

एलएलएम प्रदाताओं के रूप में, इन सिद्धांतों को प्रकाशित करना सहयोगात्मक रूप से सुरक्षित बड़े भाषा मॉडल विकास और परिनियोजन के मार्गदर्शन में पहला कदम दर्शाता है। हम अनजाने में होने वाले नुकसान को कम करने और भाषा मॉडल के दुर्भावनापूर्ण उपयोग को रोकने के लिए अन्य अवसरों की पहचान करने के लिए एक-दूसरे के साथ और अन्य पार्टियों के साथ काम करना जारी रखने के लिए उत्साहित हैं।

डाउनलोड के रूप में पीडीएफ

अन्य संगठनों से समर्थन

"जबकि एलएलएम बहुत सारे वादे रखते हैं, उनके पास महत्वपूर्ण अंतर्निहित सुरक्षा मुद्दे हैं जिन पर काम करने की आवश्यकता है। ये सर्वोत्तम प्रथाएं इन मॉडलों के नुकसान को कम करने और उनके संभावित लाभों को अधिकतम करने में एक महत्वपूर्ण कदम के रूप में काम करती हैं।"

—एंथ्रोपिक

"जैसा कि बड़े भाषा मॉडल (एलएलएम) तेजी से शक्तिशाली और अभिव्यंजक बन गए हैं, जोखिम शमन तेजी से महत्वपूर्ण हो जाता है। हम नुकसान को कम करने और अतिरिक्त परिश्रम की आवश्यकता वाले क्षेत्रों को उजागर करने के लिए सक्रिय रूप से प्रयास करने के लिए इन और अन्य प्रयासों का स्वागत करते हैं। यहां बताए गए सिद्धांत वैश्विक बातचीत में महत्वपूर्ण योगदान देते हैं।"

-जॉन बंसेमर, साइबरएआई प्रोजेक्ट के निदेशक और सीनियर फेलो, सेंटर फॉर सिक्योरिटी एंड इमर्जिंग टेक्नोलॉजी (सीएसईटी)

"Google नुकसान, पूर्वाग्रह और गलत बयानी के जोखिम को कम करने के लिए मॉडल और प्रशिक्षण डेटा के विश्लेषण में व्यापक रणनीतियों के महत्व की पुष्टि करता है। एआई सुरक्षा की दिशा में सिद्धांतों और प्रलेखन को बढ़ावा देने के लिए इन एआई प्रदाताओं द्वारा उठाया गया यह एक विचारशील कदम है।”

—गूगल क्लाउड प्लेटफॉर्म (जीसीपी)

"फाउंडेशन मॉडल की सुरक्षा, जैसे कि बड़े भाषा मॉडल, एक बढ़ती हुई सामाजिक चिंता है। हम मॉडल डेवलपर्स के दृष्टिकोण से जिम्मेदार विकास और तैनाती के लिए उच्च-स्तरीय सिद्धांतों की रूपरेखा तैयार करने के लिए पहला कदम उठाने के लिए कोहेयर, ओपनएआई और एआई21 लैब्स की सराहना करते हैं। अभी भी बहुत काम किया जाना बाकी है, और हमारा मानना ​​है कि अधिक विस्तृत सिद्धांतों और सामुदायिक मानदंडों को विकसित करने के लिए अकादमिक, उद्योग और नागरिक समाज से अधिक आवाजों को शामिल करना आवश्यक है। जैसा कि हम अपने हाल में बताते हैं ब्लॉग पोस्ट, यह केवल अंतिम परिणाम नहीं है बल्कि प्रक्रिया की वैधता भी मायने रखती है।"

-पर्सी लियांग, स्टैनफोर्ड सेंटर फॉर रिसर्च ऑन फाउंडेशन मॉडल्स (सीआरएफएम) के निदेशक

संलग्न मिल

यदि आप भाषा मॉडल विकसित कर रहे हैं या उनके जोखिमों को कम करने के लिए काम कर रहे हैं, तो हमें आपसे बात करना अच्छा लगेगा। कृपया यहां पहुंचें bestpractices@openai.com.

समय टिकट:

से अधिक OpenAI