एडब्ल्यूएस इनफेरेंटिया और एडब्ल्यूएस ट्रेनियम के साथ अमेज़ॅन सेजमेकर जम्पस्टार्ट में लागत प्रभावी ढंग से लामा 2 मॉडल को फाइन-ट्यून और तैनात करें | अमेज़न वेब सेवाएँ

एडब्ल्यूएस इनफेरेंटिया और एडब्ल्यूएस ट्रेनियम के साथ अमेज़ॅन सेजमेकर जम्पस्टार्ट में लागत प्रभावी ढंग से लामा 2 मॉडल को फाइन-ट्यून और तैनात करें | अमेज़न वेब सेवाएँ

आज, हम लामा 2 अनुमान और फाइन-ट्यूनिंग समर्थन की उपलब्धता की घोषणा करते हुए उत्साहित हैं एडब्ल्यूएस ट्रेनियम और एडब्ल्यूएस इन्फेंटेंटिया में उदाहरण हैं अमेज़न SageMaker जम्पस्टार्ट. सेजमेकर के माध्यम से एडब्ल्यूएस ट्रेनियम और इनफेरेंटिया आधारित उदाहरणों का उपयोग करने से उपयोगकर्ताओं को प्रति टोकन विलंबता कम करते हुए फाइन-ट्यूनिंग लागत को 50% तक कम करने और तैनाती लागत को 4.7x तक कम करने में मदद मिल सकती है। लामा 2 एक ऑटो-रिग्रेसिव जेनरेटिव टेक्स्ट लैंग्वेज मॉडल है जो एक अनुकूलित ट्रांसफार्मर आर्किटेक्चर का उपयोग करता है। सार्वजनिक रूप से उपलब्ध मॉडल के रूप में, लामा 2 को कई एनएलपी कार्यों जैसे पाठ वर्गीकरण, भावना विश्लेषण, भाषा अनुवाद, भाषा मॉडलिंग, पाठ निर्माण और संवाद प्रणाली के लिए डिज़ाइन किया गया है। अच्छा ग्राहक अनुभव प्रदान करने के लिए वास्तविक समय के प्रदर्शन को पूरा करने के लिए लामा 2 जैसे एलएलएम को फाइन-ट्यूनिंग और तैनात करना महंगा या चुनौतीपूर्ण हो सकता है। ट्रेनियम और एडब्ल्यूएस इनफेरेंटिया, द्वारा सक्षम AWS न्यूरॉन सॉफ्टवेयर डेवलपमेंट किट (एसडीके), लामा 2 मॉडल के प्रशिक्षण और अनुमान के लिए उच्च प्रदर्शन और लागत प्रभावी विकल्प प्रदान करता है।

इस पोस्ट में, हम प्रदर्शित करते हैं कि सेजमेकर जम्पस्टार्ट में ट्रेनियम और एडब्ल्यूएस इन्फेरेंटिया उदाहरणों पर लामा 2 को कैसे तैनात और फाइन-ट्यून किया जाए।

समाधान अवलोकन

इस ब्लॉग में, हम निम्नलिखित परिदृश्यों पर चलेंगे:

  1. दोनों में एडब्ल्यूएस इनफेरेंटिया उदाहरणों पर लामा 2 तैनात करें अमेज़ॅन सैजमेकर स्टूडियो यूआई, एक-क्लिक परिनियोजन अनुभव और सेजमेकर पायथन एसडीके के साथ।
  2. सेजमेकर स्टूडियो यूआई और सेजमेकर पायथन एसडीके दोनों में ट्रेनियम उदाहरणों पर लामा 2 को फाइन-ट्यून करें।
  3. फाइन-ट्यूनिंग की प्रभावशीलता दिखाने के लिए फाइन-ट्यून किए गए लामा 2 मॉडल के प्रदर्शन की तुलना पूर्व-प्रशिक्षित मॉडल से करें।

हाथ पाने के लिए, देखें GitHub उदाहरण नोटबुक.

सेजमेकर स्टूडियो यूआई और पायथन एसडीके का उपयोग करके एडब्ल्यूएस इनफेरेंटिया उदाहरणों पर लामा 2 को तैनात करें

इस अनुभाग में, हम प्रदर्शित करते हैं कि एक-क्लिक परिनियोजन और पायथन एसडीके के लिए सेजमेकर स्टूडियो यूआई का उपयोग करके एडब्ल्यूएस इनफेरेंटिया उदाहरणों पर लामा 2 को कैसे तैनात किया जाए।

सेजमेकर स्टूडियो यूआई पर लामा 2 मॉडल की खोज करें

सेजमेकर जम्पस्टार्ट सार्वजनिक रूप से उपलब्ध और मालिकाना दोनों तक पहुंच प्रदान करता है नींव मॉडल. फाउंडेशन मॉडल को तीसरे पक्ष और मालिकाना प्रदाताओं से ऑनबोर्ड और रखरखाव किया जाता है। इस प्रकार, उन्हें मॉडल स्रोत द्वारा निर्दिष्ट विभिन्न लाइसेंसों के तहत जारी किया जाता है। आपके द्वारा उपयोग किए जाने वाले किसी भी फाउंडेशन मॉडल के लाइसेंस की समीक्षा अवश्य करें। आप किसी भी लागू लाइसेंस शर्तों की समीक्षा करने और उनका अनुपालन करने के लिए जिम्मेदार हैं और यह सुनिश्चित करते हैं कि सामग्री को डाउनलोड करने या उपयोग करने से पहले वे आपके उपयोग के मामले में स्वीकार्य हैं।

आप सेजमेकर स्टूडियो यूआई और सेजमेकर पायथन एसडीके में सेजमेकर जम्पस्टार्ट के माध्यम से लामा 2 फाउंडेशन मॉडल तक पहुंच सकते हैं। इस अनुभाग में, हम सेजमेकर स्टूडियो में मॉडलों की खोज कैसे करें, इसके बारे में जानेंगे।

सेजमेकर स्टूडियो एक एकीकृत विकास वातावरण (आईडीई) है जो एक एकल वेब-आधारित विज़ुअल इंटरफ़ेस प्रदान करता है जहां आप डेटा तैयार करने से लेकर निर्माण, प्रशिक्षण और अपने एमएल को तैनात करने तक सभी मशीन लर्निंग (एमएल) विकास चरणों को करने के लिए उद्देश्य-निर्मित टूल तक पहुंच सकते हैं। मॉडल। सेजमेकर स्टूडियो कैसे शुरू करें और स्थापित करें, इसके बारे में अधिक जानकारी के लिए देखें अमेज़ॅन सेजमेकर स्टूडियो।

सेजमेकर स्टूडियो में होने के बाद, आप सेजमेकर जम्पस्टार्ट तक पहुंच सकते हैं, जिसमें पूर्व-प्रशिक्षित मॉडल, नोटबुक और पूर्वनिर्मित समाधान शामिल हैं। पूर्वनिर्मित और स्वचालित समाधान. मालिकाना मॉडल तक पहुंचने के तरीके के बारे में अधिक विस्तृत जानकारी के लिए, देखें अमेज़ॅन सेजमेकर स्टूडियो में अमेज़ॅन सेजमेकर जंपस्टार्ट के मालिकाना फाउंडेशन मॉडल का उपयोग करें.

एडब्ल्यूएस इनफेरेंटिया और एडब्ल्यूएस ट्रेनियम के साथ अमेज़ॅन सेजमेकर जम्पस्टार्ट में लागत प्रभावी ढंग से लामा 2 मॉडल को फाइन-ट्यून और तैनात करें | अमेज़ॅन वेब सेवाएँ प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.

सेजमेकर जम्पस्टार्ट लैंडिंग पृष्ठ से, आप समाधान, मॉडल, नोटबुक और अन्य संसाधन ब्राउज़ कर सकते हैं।

यदि आपको लामा 2 मॉडल दिखाई नहीं देते हैं, तो बंद करके और पुनः आरंभ करके अपने सेजमेकर स्टूडियो संस्करण को अपडेट करें। संस्करण अपडेट के बारे में अधिक जानकारी के लिए देखें स्टूडियो क्लासिक ऐप्स बंद करें और अपडेट करें.

एडब्ल्यूएस इनफेरेंटिया और एडब्ल्यूएस ट्रेनियम के साथ अमेज़ॅन सेजमेकर जम्पस्टार्ट में लागत प्रभावी ढंग से लामा 2 मॉडल को फाइन-ट्यून और तैनात करें | अमेज़ॅन वेब सेवाएँ प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.

आप चुनकर अन्य मॉडल वेरिएंट भी पा सकते हैं सभी टेक्स्ट जेनरेशन मॉडल का अन्वेषण करें या खोज रहे हैं llama or neuron खोज बॉक्स में. आप इस पेज पर लामा 2 न्यूरॉन मॉडल देख पाएंगे।

एडब्ल्यूएस इनफेरेंटिया और एडब्ल्यूएस ट्रेनियम के साथ अमेज़ॅन सेजमेकर जम्पस्टार्ट में लागत प्रभावी ढंग से लामा 2 मॉडल को फाइन-ट्यून और तैनात करें | अमेज़ॅन वेब सेवाएँ प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.

सेजमेकर जम्पस्टार्ट के साथ लामा-2-13बी मॉडल को तैनात करें

आप मॉडल के बारे में विवरण देखने के लिए मॉडल कार्ड चुन सकते हैं जैसे लाइसेंस, प्रशिक्षण के लिए उपयोग किया गया डेटा और इसका उपयोग कैसे करें। आप दो बटन भी पा सकते हैं, तैनाती और नोटबुक खोलें, जो आपको इस नो-कोड उदाहरण का उपयोग करके मॉडल का उपयोग करने में मदद करता है।

एडब्ल्यूएस इनफेरेंटिया और एडब्ल्यूएस ट्रेनियम के साथ अमेज़ॅन सेजमेकर जम्पस्टार्ट में लागत प्रभावी ढंग से लामा 2 मॉडल को फाइन-ट्यून और तैनात करें | अमेज़ॅन वेब सेवाएँ प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.

जब आप कोई भी बटन चुनते हैं, तो एक पॉप-अप आपको स्वीकार करने के लिए अंतिम उपयोगकर्ता लाइसेंस अनुबंध और स्वीकार्य उपयोग नीति (एयूपी) दिखाएगा।

एडब्ल्यूएस इनफेरेंटिया और एडब्ल्यूएस ट्रेनियम के साथ अमेज़ॅन सेजमेकर जम्पस्टार्ट में लागत प्रभावी ढंग से लामा 2 मॉडल को फाइन-ट्यून और तैनात करें | अमेज़ॅन वेब सेवाएँ प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.

नीतियों को स्वीकार करने के बाद, आप मॉडल के समापन बिंदु को तैनात कर सकते हैं और अगले अनुभाग में दिए गए चरणों के माध्यम से इसका उपयोग कर सकते हैं।

पायथन एसडीके के माध्यम से लामा 2 न्यूरॉन मॉडल को तैनात करें

जब आप चुनते हैं तैनाती और शर्तें स्वीकार करें, मॉडल परिनियोजन शुरू हो जाएगा। वैकल्पिक रूप से, आप उदाहरण नोटबुक के माध्यम से चयन करके तैनात कर सकते हैं नोटबुक खोलें. उदाहरण नोटबुक अनुमान लगाने और संसाधनों को साफ करने के लिए मॉडल को कैसे तैनात किया जाए, इस पर शुरू से अंत तक मार्गदर्शन प्रदान करता है।

ट्रेनियम या AWS इन्फेरेंटिया इंस्टेंसेस पर किसी मॉडल को तैनात या फाइन-ट्यून करने के लिए, आपको सबसे पहले PyTorch न्यूरॉन को कॉल करना होगा (टॉर्च-न्यूरॉनक्स) मॉडल को न्यूरॉन-विशिष्ट ग्राफ़ में संकलित करने के लिए, जो इसे इनफेरेंटिया के न्यूरॉनकोर्स के लिए अनुकूलित करेगा। उपयोगकर्ता एप्लिकेशन के उद्देश्यों के आधार पर कंपाइलर को न्यूनतम विलंबता या उच्चतम थ्रूपुट के लिए अनुकूलन करने का निर्देश दे सकते हैं। जंपस्टार्ट में, हमने विभिन्न प्रकार के कॉन्फ़िगरेशन के लिए न्यूरॉन ग्राफ़ को पूर्व-संकलित किया, ताकि उपयोगकर्ताओं को संकलन चरणों को सिप करने की अनुमति मिल सके, जिससे तेजी से फाइन-ट्यूनिंग और मॉडलों को तैनात किया जा सके।

ध्यान दें कि न्यूरॉन पूर्व-संकलित ग्राफ़ न्यूरॉन कंपाइलर संस्करण के एक विशिष्ट संस्करण के आधार पर बनाया गया है।

AWS इन्फेरेंटिया-आधारित उदाहरणों पर LIama 2 को तैनात करने के दो तरीके हैं। पहली विधि पूर्व-निर्मित कॉन्फ़िगरेशन का उपयोग करती है, और आपको कोड की केवल दो पंक्तियों में मॉडल को तैनात करने की अनुमति देती है। दूसरे में, कॉन्फ़िगरेशन पर आपका अधिक नियंत्रण होता है। आइए पहली विधि से शुरू करें, पूर्व-निर्मित कॉन्फ़िगरेशन के साथ, और एक उदाहरण के रूप में पूर्व-प्रशिक्षित लामा 2 13बी न्यूरॉन मॉडल का उपयोग करें। निम्नलिखित कोड दिखाता है कि केवल दो पंक्तियों के साथ लामा 13बी को कैसे तैनात किया जाए:

from sagemaker.jumpstart.model import JumpStartModel model_id = "meta-textgenerationneuron-llama-2-13b"
model = JumpStartModel(model_id=model_id)
pretrained_predictor = model.deploy(accept_eula=False) ## To set 'accept_eula' to be True to deploy 

इन मॉडलों पर अनुमान लगाने के लिए, आपको तर्क निर्दिष्ट करने की आवश्यकता है accept_eula करने के लिए हो सकता है True के हिस्से के रूप में model.deploy() पुकारना। इस तर्क को सत्य मानते हुए, स्वीकार करें कि आपने मॉडल के EULA को पढ़ लिया है और स्वीकार कर लिया है। EULA मॉडल कार्ड विवरण में या से पाया जा सकता है मेटा वेबसाइट.

Llama 2 13B के लिए डिफ़ॉल्ट इंस्टेंस प्रकार ml.inf2.8xlarge है। आप अन्य समर्थित मॉडल आईडी भी आज़मा सकते हैं:

  • meta-textgenerationneuron-llama-2-7b
  • meta-textgenerationneuron-llama-2-7b-f (चैट मॉडल)
  • meta-textgenerationneuron-llama-2-13b-f (चैट मॉडल)

वैकल्पिक रूप से, यदि आप परिनियोजन कॉन्फ़िगरेशन पर अधिक नियंत्रण चाहते हैं, जैसे कि संदर्भ लंबाई, टेंसर समानांतर डिग्री और अधिकतम रोलिंग बैच आकार, तो आप उन्हें पर्यावरण चर के माध्यम से संशोधित कर सकते हैं, जैसा कि इस अनुभाग में दिखाया गया है। परिनियोजन का अंतर्निहित डीप लर्निंग कंटेनर (डीएलसी) है बड़े मॉडल अनुमान (एलएमआई) न्यूरॉनएक्स डीएलसी. पर्यावरण चर इस प्रकार हैं:

  • OPTION_N_POSITIONS - इनपुट और आउटपुट टोकन की अधिकतम संख्या। उदाहरण के लिए, यदि आप मॉडल को संकलित करते हैं OPTION_N_POSITIONS 512 के रूप में, तो आप 128 के अधिकतम आउटपुट टोकन के साथ 384 (इनपुट प्रॉम्प्ट आकार) के इनपुट टोकन का उपयोग कर सकते हैं (इनपुट और आउटपुट टोकन का कुल योग 512 होना चाहिए)। अधिकतम आउटपुट टोकन के लिए, 384 से नीचे का कोई भी मान ठीक है, लेकिन आप इससे आगे नहीं जा सकते (उदाहरण के लिए, इनपुट 256 और आउटपुट 512)।
  • OPTION_TENSOR_PARALLEL_DEGREE - AWS इन्फेरेंटिया उदाहरणों में मॉडल को लोड करने के लिए न्यूरॉनकोर्स की संख्या।
  • OPTION_MAX_ROLLING_BATCH_SIZE - समवर्ती अनुरोधों के लिए अधिकतम बैच आकार।
  • OPTION_DTYPE - मॉडल लोड करने की तिथि प्रकार।

न्यूरॉन ग्राफ का संकलन संदर्भ लंबाई पर निर्भर करता है (OPTION_N_POSITIONS), टेंसर समानांतर डिग्री (OPTION_TENSOR_PARALLEL_DEGREE), अधिकतम बैच आकार (OPTION_MAX_ROLLING_BATCH_SIZE), और डेटा प्रकार (OPTION_DTYPE) मॉडल लोड करने के लिए। सेजमेकर जंपस्टार्ट ने रनटाइम संकलन से बचने के लिए पूर्ववर्ती मापदंडों के लिए विभिन्न प्रकार के कॉन्फ़िगरेशन के लिए न्यूरॉन ग्राफ़ को पूर्व-संकलित किया है। पूर्व-संकलित ग्राफ़ के कॉन्फ़िगरेशन निम्न तालिका में सूचीबद्ध हैं। जब तक पर्यावरण चर निम्नलिखित श्रेणियों में से एक में आते हैं, न्यूरॉन ग्राफ़ का संकलन छोड़ दिया जाएगा।

LIama-2 7B और LIama-2 7B चैट
उदाहरण प्रकार OPTION_N_POSITIONS OPTION_MAX_ROLLING_BATCH_SIZE OPTION_TENSOR_PARALLEL_DEGREE OPTION_DTYPE
ml.inf2.xlarge 1024 1 2 fp16
ml.inf2.8xlarge 2048 1 2 fp16
ml.inf2.24xlarge 4096 4 4 fp16
ml.inf2.24xlarge 4096 4 8 fp16
ml.inf2.24xlarge 4096 4 12 fp16
ml.inf2.48xlarge 4096 4 4 fp16
ml.inf2.48xlarge 4096 4 8 fp16
ml.inf2.48xlarge 4096 4 12 fp16
ml.inf2.48xlarge 4096 4 24 fp16
LIama-2 13B और LIama-2 13B चैट
ml.inf2.8xlarge 1024 1 2 fp16
ml.inf2.24xlarge 2048 4 4 fp16
ml.inf2.24xlarge 4096 4 8 fp16
ml.inf2.24xlarge 4096 4 12 fp16
ml.inf2.48xlarge 2048 4 4 fp16
ml.inf2.48xlarge 4096 4 8 fp16
ml.inf2.48xlarge 4096 4 12 fp16
ml.inf2.48xlarge 4096 4 24 fp16

निम्नलिखित लामा 2 13बी को तैनात करने और सभी उपलब्ध कॉन्फ़िगरेशन को सेट करने का एक उदाहरण है।

from sagemaker.jumpstart.model import JumpStartModel model_id = "meta-textgenerationneuron-llama-2-13b-f"
model = JumpStartModel( model_id=model_id, env={ "OPTION_DTYPE": "fp16", "OPTION_N_POSITIONS": "4096", "OPTION_TENSOR_PARALLEL_DEGREE": "12", "OPTION_MAX_ROLLING_BATCH_SIZE": "4", }, instance_type="ml.inf2.24xlarge" )
pretrained_predictor = model.deploy(accept_eula=False) ## To set 'accept_eula' to be True to deploy 

अब जब हमने लामा-2-13बी मॉडल तैनात कर दिया है, तो हम समापन बिंदु को लागू करके इसके साथ अनुमान चला सकते हैं। निम्नलिखित कोड स्निपेट पाठ निर्माण को नियंत्रित करने के लिए समर्थित अनुमान पैरामीटर का उपयोग दर्शाता है:

  • अधिकतम लंबाई - मॉडल आउटपुट लंबाई (जिसमें इनपुट संदर्भ लंबाई शामिल है) तक पहुंचने तक टेक्स्ट उत्पन्न करता है max_length. यदि निर्दिष्ट किया गया है, तो यह एक धनात्मक पूर्णांक होना चाहिए।
  • max_new_tokens - मॉडल आउटपुट लंबाई (इनपुट संदर्भ लंबाई को छोड़कर) तक पहुंचने तक टेक्स्ट उत्पन्न करता है max_new_tokens. यदि निर्दिष्ट किया गया है, तो यह एक धनात्मक पूर्णांक होना चाहिए।
  • num_beams - यह लालची खोज में प्रयुक्त बीमों की संख्या को इंगित करता है। यदि निर्दिष्ट किया गया है, तो यह इससे बड़ा या इसके बराबर पूर्णांक होना चाहिए num_return_sequences.
  • no_repeat_ngram_size - मॉडल यह सुनिश्चित करता है कि शब्दों का एक क्रम no_repeat_ngram_size आउटपुट अनुक्रम में दोहराया नहीं जाता है। यदि निर्दिष्ट किया गया है, तो यह 1 से अधिक धनात्मक पूर्णांक होना चाहिए।
  • तापमान - यह आउटपुट में यादृच्छिकता को नियंत्रित करता है। उच्च तापमान के परिणामस्वरूप कम-संभावना वाले शब्दों वाला आउटपुट अनुक्रम उत्पन्न होता है; कम तापमान के परिणामस्वरूप उच्च-संभावना वाले शब्दों के साथ आउटपुट अनुक्रम उत्पन्न होता है। अगर temperature 0 के बराबर है, इसका परिणाम लालची डिकोडिंग में होता है। यदि निर्दिष्ट किया गया है, तो यह एक सकारात्मक फ्लोट होना चाहिए।
  • जल्दी रुकना - अगर True, जब सभी बीम परिकल्पनाएं वाक्य टोकन के अंत तक पहुंच जाती हैं, तो पाठ निर्माण समाप्त हो जाता है। यदि निर्दिष्ट किया गया है, तो यह बूलियन होना चाहिए।
  • do_sample - अगर True, मॉडल संभावना के अनुसार अगले शब्द का नमूना लेता है। यदि निर्दिष्ट किया गया है, तो यह बूलियन होना चाहिए।
  • शीर्ष_के - पाठ निर्माण के प्रत्येक चरण में, मॉडल केवल से नमूने लेता है top_k सबसे अधिक संभावना शब्द। यदि निर्दिष्ट किया गया है, तो यह एक धनात्मक पूर्णांक होना चाहिए।
  • शीर्ष_पी - पाठ निर्माण के प्रत्येक चरण में, मॉडल संचयी संभावना वाले शब्दों के सबसे छोटे संभावित सेट से नमूने लेता है top_p. यदि निर्दिष्ट किया गया है, तो यह 0-1 के बीच एक फ्लोट होना चाहिए।
  • रुकें - यदि निर्दिष्ट किया गया है, तो यह स्ट्रिंग्स की एक सूची होनी चाहिए। यदि निर्दिष्ट स्ट्रिंग में से कोई एक उत्पन्न होता है तो टेक्स्ट जनरेशन बंद हो जाता है।

निम्नलिखित कोड एक उदाहरण दिखाता है:

payload = { "inputs": "I believe the meaning of life is", "parameters": { "max_new_tokens": 64, "top_p": 0.9, "temperature": 0.6, },
} response = pretrained_predictor.predict(payload)

उत्पादन:

I believe the meaning of life is
> to be happy. I believe that happiness is a choice. I believe that happiness is a state of mind. I believe that happiness is a state of being. I believe that happiness is a state of being. I believe that happiness is a state of being. I believe that happiness is a state of being. I believe

पेलोड में पैरामीटर्स के बारे में अधिक जानकारी के लिए देखें विस्तृत पैरामीटर.

आप इसमें मापदंडों के कार्यान्वयन का भी पता लगा सकते हैं नोटबुक नोटबुक के लिंक के बारे में अधिक जानकारी जोड़ने के लिए।

सेजमेकर स्टूडियो यूआई और सेजमेकर पायथन एसडीके का उपयोग करके ट्रेनियम इंस्टेंसेस पर लामा 2 मॉडल को फाइन-ट्यून करें

जेनरेटिव एआई फाउंडेशन मॉडल एमएल और एआई में प्राथमिक फोकस बन गए हैं, हालांकि, उनका व्यापक सामान्यीकरण स्वास्थ्य देखभाल या वित्तीय सेवाओं जैसे विशिष्ट डोमेन में कम हो सकता है, जहां अद्वितीय डेटासेट शामिल हैं। यह सीमा इन विशिष्ट क्षेत्रों में अपने प्रदर्शन को बढ़ाने के लिए डोमेन-विशिष्ट डेटा के साथ इन जेनरेटिव एआई मॉडल को ठीक करने की आवश्यकता पर प्रकाश डालती है।

अब जब हमने लामा 2 मॉडल का पूर्व-प्रशिक्षित संस्करण तैनात कर दिया है, तो आइए देखें कि हम सटीकता बढ़ाने के लिए इसे डोमेन-विशिष्ट डेटा में कैसे ठीक कर सकते हैं, त्वरित पूर्णता के संदर्भ में मॉडल में सुधार कर सकते हैं और मॉडल को अनुकूलित कर सकते हैं आपका विशिष्ट व्यावसायिक उपयोग मामला और डेटा। आप सेजमेकर स्टूडियो यूआई या सेजमेकर पायथन एसडीके का उपयोग करके मॉडल को फाइन-ट्यून कर सकते हैं। हम इस अनुभाग में दोनों विधियों पर चर्चा करते हैं।

सेजमेकर स्टूडियो के साथ लामा-2-13बी न्यूरॉन मॉडल को फाइन-ट्यून करें

सेजमेकर स्टूडियो में, लामा-2-13बी न्यूरॉन मॉडल पर जाएँ। पर तैनाती टैब, आप इंगित कर सकते हैं अमेज़न सरल भंडारण सेवा (अमेज़ॅन S3) बकेट जिसमें फ़ाइन-ट्यूनिंग के लिए प्रशिक्षण और सत्यापन डेटासेट शामिल हैं। इसके अलावा, आप फ़ाइन-ट्यूनिंग के लिए परिनियोजन कॉन्फ़िगरेशन, हाइपरपैरामीटर और सुरक्षा सेटिंग्स कॉन्फ़िगर कर सकते हैं। उसके बाद चुनो रेलगाड़ी सेजमेकर एमएल इंस्टेंस पर प्रशिक्षण कार्य शुरू करने के लिए।

एडब्ल्यूएस इनफेरेंटिया और एडब्ल्यूएस ट्रेनियम के साथ अमेज़ॅन सेजमेकर जम्पस्टार्ट में लागत प्रभावी ढंग से लामा 2 मॉडल को फाइन-ट्यून और तैनात करें | अमेज़ॅन वेब सेवाएँ प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.

लामा 2 मॉडल का उपयोग करने के लिए, आपको EULA और AUP को स्वीकार करना होगा। जब आप चुनेंगे तो यह दिखाई देगा रेलगाड़ी। चुनना मैंने EULA और AUP को पढ़ लिया है और स्वीकार कर लिया है फाइन-ट्यूनिंग कार्य शुरू करने के लिए।

आप सेजमेकर कंसोल पर चुनकर फाइन-ट्यून्ड मॉडल के लिए अपने प्रशिक्षण कार्य की स्थिति देख सकते हैं प्रशिक्षण कार्य नेविगेशन फलक में

आप या तो इस नो-कोड उदाहरण का उपयोग करके अपने लामा 2 न्यूरॉन मॉडल को फाइन-ट्यून कर सकते हैं, या पायथन एसडीके के माध्यम से फाइन-ट्यून कर सकते हैं, जैसा कि अगले भाग में दिखाया गया है।

सेजमेकर पायथन एसडीके के माध्यम से लामा-2-13बी न्यूरॉन मॉडल को फाइन-ट्यून करें

आप डोमेन अनुकूलन प्रारूप या के साथ डेटासेट को ठीक कर सकते हैं निर्देश-आधारित फ़ाइन-ट्यूनिंग प्रारूप। फ़ाइन-ट्यूनिंग में भेजे जाने से पहले प्रशिक्षण डेटा को कैसे स्वरूपित किया जाना चाहिए, इसके निर्देश निम्नलिखित हैं:

  • निवेश - एक train निर्देशिका जिसमें या तो JSON लाइनें (.jsonl) या टेक्स्ट (.txt) स्वरूपित फ़ाइल है।
    • JSON लाइन्स (.jsonl) फ़ाइल के लिए, प्रत्येक लाइन एक अलग JSON ऑब्जेक्ट है। प्रत्येक JSON ऑब्जेक्ट को कुंजी-मूल्य जोड़ी के रूप में संरचित किया जाना चाहिए, जहां कुंजी होनी चाहिए text, और मूल्य एक प्रशिक्षण उदाहरण की सामग्री है।
    • ट्रेन निर्देशिका के अंतर्गत फ़ाइलों की संख्या 1 के बराबर होनी चाहिए।
  • उत्पादन - एक प्रशिक्षित मॉडल जिसे अनुमान के लिए तैनात किया जा सकता है।

इस उदाहरण में, हम के एक उपसमुच्चय का उपयोग करते हैं डॉली डेटासेट एक अनुदेश ट्यूनिंग प्रारूप में. डॉली डेटासेट में विभिन्न श्रेणियों, जैसे प्रश्न उत्तर, सारांश और सूचना निष्कर्षण के लिए लगभग 15,000 अनुदेश-निम्नलिखित रिकॉर्ड शामिल हैं। यह अपाचे 2.0 लाइसेंस के तहत उपलब्ध है। हम उपयोग करते हैं information_extraction फाइन-ट्यूनिंग के लिए उदाहरण.

  1. डॉली डेटासेट लोड करें और इसे विभाजित करें train (फाइन-ट्यूनिंग के लिए) और test (मूल्यांकन के लिए):
    from datasets import load_dataset dolly_dataset = load_dataset("databricks/databricks-dolly-15k", split="train") task = "information_extraction"
    To train for summarization/closed question and answering, you can replace the assertion in next line to example["category"] == "sumarization"/"closed_qa".
    summarization_dataset = dolly_dataset.filter(lambda example: example["category"] == task)
    summarization_dataset = summarization_dataset.remove_columns("category") We split the dataset into two where test data is used to evaluate at the end.
    train_and_test_dataset = summarization_dataset.train_test_split(test_size=0.1) Dumping the training data to a local file to be used for training.
    train_and_test_dataset["train"].to_json("train.jsonl")

  1. प्रशिक्षण कार्य के लिए निर्देश प्रारूप में डेटा को प्रीप्रोसेस करने के लिए एक त्वरित टेम्पलेट का उपयोग करें:
    prompt = ("""Below is an instruction that describes a task, paired with an input that provides further context. Write a response that appropriately completes the request.nn### Instruction:n{instruction}nn### Input:n{context}### Response:n{response}nn<s>""")

  1. हाइपरपैरामीटर की जांच करें और उन्हें अपने उपयोग के मामले में अधिलेखित करें:
    from sagemaker import hyperparameters model_id = "meta-textgenerationneuron-llama-2-13b"
    model_version = "1.*" my_hyperparameters = hyperparameters.retrieve_default( model_id=model_id, model_version=model_version
    ) my_hyperparameters["max_input_length"] = "4096" ## you can increase it up to 4096 for sequence length.
    my_hyperparameters["max_steps"] = "25"
    my_hyperparameters["learning_rate"] = "0.0001"
    print(my_hyperparameters) hyperparameters.validate(model_id=model_id, model_version=model_version, hyperparameters=my_hyperparameters)

  1. मॉडल को बेहतर बनाएं और सेजमेकर प्रशिक्षण कार्य शुरू करें। फाइन-ट्यूनिंग स्क्रिप्ट्स पर आधारित हैं न्यूरॉनक्स-निमो-मेगाट्रॉन रिपॉजिटरी, जो पैकेज के संशोधित संस्करण हैं निमो और सर्वोच्च जिन्हें न्यूरॉन और EC2 Trn1 उदाहरणों के साथ उपयोग के लिए अनुकूलित किया गया है। न्यूरॉनक्स-निमो-मेगाट्रॉन रिपॉजिटरी में 3डी (डेटा, टेंसर और पाइपलाइन) समानता है जो आपको एलएलएम को स्केल में फाइन-ट्यून करने की अनुमति देती है। समर्थित ट्रेनियम उदाहरण ml.trn1.32xlarge और ml.trn1n.32xlarge हैं।
    from sagemaker.jumpstart.estimator import JumpStartEstimator estimator = JumpStartEstimator( model_id=model_id, model_version=model_version, hyperparameters=my_hyperparameters, environment={"accept_eula": "false"}, # please change `accept_eula` to be `true` to accept EULA. #instance_type="ml.trn1n.32xlarge", if not specified, default `ml.trn1.32xlarge` will be used.
    ) estimator.fit({"train": train_data_location})

  1. अंत में, सेजमेकर एंडपॉइंट में फाइन-ट्यून किए गए मॉडल को तैनात करें:
    finetuned_predictor = estimator.deploy()

पूर्व-प्रशिक्षित और सुव्यवस्थित लामा 2 न्यूरॉन मॉडल के बीच प्रतिक्रियाओं की तुलना करें

अब जब हमने लामा-2-13बी मॉडल के पूर्व-प्रशिक्षित संस्करण को तैनात किया है और इसे ठीक किया है, तो हम दोनों मॉडलों से शीघ्र पूर्णता की कुछ प्रदर्शन तुलना देख सकते हैं, जैसा कि निम्नलिखित तालिका में दिखाया गया है। हम .txt प्रारूप में SEC फाइलिंग डेटासेट पर Llama 2 को फाइन-ट्यून करने के लिए एक उदाहरण भी पेश करते हैं। विवरण के लिए, देखें GitHub उदाहरण नोटबुक.

मद निविष्टियां सच्चाई गैर-परिष्कृत मॉडल से प्रतिक्रिया सुव्यवस्थित मॉडल से प्रतिक्रिया
1 नीचे एक निर्देश है जो किसी कार्य का वर्णन करता है, जिसे एक इनपुट के साथ जोड़ा गया है जो आगे का संदर्भ प्रदान करता है। ऐसा उत्तर लिखें जो उचित रूप से अनुरोध को पूरा करता हो। , और अपनी स्नातक की पढ़ाई इकोले पॉलिटेक्निक फेडेरेल डी लॉज़ेन (ईपीएफएल) से की, 1953 में स्नातक की उपाधि प्राप्त की। उन्होंने टेनेसी विश्वविद्यालय में स्नातक की पढ़ाई की और पीएच.डी. अर्जित की। 1975 में। इसके बाद वे न्यू मैक्सिको विश्वविद्यालय के संकाय में शामिल हो गए, जहां वे 1980 तक रहे, जब वे ईपीएफएल में चले गए। वह दिसंबर 2006 में ईपीएफएल से सेवानिवृत्त हुए। 2016 में, मोरेट ने एसीएम जर्नल ऑफ एक्सपेरिमेंटल एल्गोरिदम की स्थापना की, और वह 1996 तक जर्नल के प्रधान संपादक बने रहे। 2003 में, मोरेट ने बायोइनफॉरमैटिक्स (डब्ल्यूएबीआई) के लिए एल्गोरिदम में कार्यशाला की स्थापना की और बने रहे। सम्मेलन के लिए संचालन समिति। 2001 में, मोरेट को कम्प्यूटेशनल जीवविज्ञान और जैव सूचना विज्ञान के क्षेत्र में उनके उत्कृष्ट योगदान के लिए इंटरनेशनल सोसाइटी फॉर कम्प्यूटेशनल बायोलॉजी के फेलो के रूप में चुना गया था। * इकोले पॉलिटेक्निक फ़ेडेरेल डी लॉज़ेन (ईपीएफएल) (स्नातक 1975)एन* टेनेसी विश्वविद्यालय (स्नातक 1980) मोरेट ने इकोले पॉलिटेक्निक फेडेरेल डी लॉज़ेन (ईपीएफएल) और टेनेसी विश्वविद्यालय में अध्ययन किया, क्रमशः 1975 और 1980 में स्नातक की उपाधि प्राप्त की। एनएन### संकेत:एनएन- इनपुट को वाक्यों की सूची में विभाजित करने के लिए `स्प्लिट` फ़ंक्शन का उपयोग करें।एन- प्रत्येक वाक्य को शब्दों की सूची में विभाजित करने के लिए `स्प्लिट` फ़ंक्शन का उपयोग करें। n- विभाजित करने के लिए `स्प्लिट` फ़ंक्शन का उपयोग करें - इकोले पॉलिटेक्निक फ़ेडेरेल डी लॉज़ेन (ईपीएफएल), 1975एन- टेनेसी विश्वविद्यालय, 1980एन- न्यू मैक्सिकोन विश्वविद्यालय- इकोले पॉलीटेक्निक फ़ेडेरेल डी लॉज़ेन (ईपीएफएल),2006एनएन नीचे एक निर्देश है जो एक कार्य का वर्णन करता है, जो एक इनपुट के साथ जोड़ा गया है आगे का संदर्भ प्रदान करता है। ऐसा उत्तर लिखें जो अनुरोध को उचित रूप से पूरा करता हो
2 नीचे एक निर्देश है जो किसी कार्य का वर्णन करता है, जिसे एक इनपुट के साथ जोड़ा गया है जो आगे का संदर्भ प्रदान करता है। एक प्रतिक्रिया लिखें जो उचित रूप से अनुरोध को पूरा करती है। परिणामों को अल्पविराम से अलग किए गए प्रारूप में प्रदर्शित करें।nn### इनपुट:nDionysus (Διόνυσος, Diónusos)/Baccus (Βάκχος, Bákkhos)nnशराब, फलदायी, पार्टियों, त्योहारों, पागलपन, अराजकता, नशे, वनस्पति, परमानंद और के भगवान थिएटर. वह ज़ीउस और सेमेले का दो बार जन्मा पुत्र है, ज़ीउस ने उसे उसकी माँ के गर्भ से छीन लिया और डायोनिसस को अपनी जाँघ में सिल दिया और उसे तब तक ले गया जब तक वह पैदा होने के लिए तैयार नहीं हो गया। कला में उन्हें या तो एक वृद्ध दाढ़ी वाले देवता (विशेषकर 430 ईसा पूर्व से पहले) या एक स्त्रैण, लंबे बालों वाले युवा (विशेषकर 430 ईसा पूर्व के बाद) के रूप में चित्रित किया गया है। उनकी विशेषताओं में थायर्सस, पीने का प्याला, अंगूर की बेल और आइवी का मुकुट शामिल हैं। वह अक्सर अपने थियासोस, व्यंग्यकार, मेनाड और अपने पुराने शिक्षक सिलेनस सहित परिचारकों के एक समूह के साथ होता है। डायोनिसस की पत्नी एराडने थी। एक बार यह माना गया था कि डायोनिसियस ग्रीक पैंथियन में बाद में जोड़ा गया था, लेकिन लीनियर बी टैबलेट की खोज प्रारंभिक काल से एक देवता के रूप में उसकी स्थिति की पुष्टि करती है। बैकस ग्रीक में उसका दूसरा नाम था, और रोमनों के बीच आम उपयोग में आया। उनके पवित्र जानवरों में डॉल्फ़िन, साँप, बाघ और गधे शामिल हैं।nn### प्रतिक्रिया:n थायर्सस, पीने का प्याला, अंगूर की बेल, आइवी का मुकुट डायोनिसस (Διόνυσος, डायोनोसोस) शराब, फलदायकता, पार्टियों, त्योहारों, पागलपन, अराजकता, नशे, वनस्पति, परमानंद और थिएटर का देवता। वह ज़ीउस और सेमेले का द्विज पुत्र है, ज़ीउस ने उसे उसकी माँ के गर्भ से छीन लिया और डायोनिसस को उसकी जांघ में सिल दिया। थायर्सस, एक पीने का प्याला, अंगूर की बेल, आइविन का एक मुकुट नीचे एक निर्देश है जो एक कार्य का वर्णन करता है, एक इनपुट के साथ जोड़ा गया है जो आगे का संदर्भ प्रदान करता है। एक प्रतिक्रिया लिखें जो उचित रूप से अनुरोध को पूरा करती है।
3 नीचे एक निर्देश है जो किसी कार्य का वर्णन करता है, जिसे एक इनपुट के साथ जोड़ा गया है जो आगे का संदर्भ प्रदान करता है। ऐसा उत्तर लिखें जो अनुरोध को उचित रूप से पूरा करता हो।nn### निर्देश:nउज़्बेकिस्तान की राजधानी में सबसे बड़ा यूनानी समुदाय क्यों है?nn### इनपुट:nउज़्बेकिस्तान में यूनानियों की संख्या लगभग 9,000 है। यह समुदाय रूस के यूनानियों से बना है जिन्हें 1940 के दशक में बलपूर्वक उस देश से उज़्बेकिस्तान भेज दिया गया था, और ग्रीस के राजनीतिक शरणार्थी थे। द्वितीय विश्व युद्ध से पहले देश में लगभग 30,000 यूनानी रहते थे और यूनानी गृह युद्ध और ग्रीस की डेमोक्रेटिक सेना की हार के बाद 11,000 और यूनानी आये। 40,000 के दशक में उनकी संख्या लगभग 1960 से कम हो गई है। इसका मुख्य कारण शीत युद्ध की समाप्ति के बाद ग्रीस में प्रवासन है, जब कानूनों ने उन सभी जातीय यूनानियों की वापसी की अनुमति दी थी, जिन्हें ग्रीक गृहयुद्ध के बाद राजनीतिक कारणों से निर्वासित किया गया था। देश में सबसे बड़ा यूनानी समुदाय राजधानी ताशकंद में है जहां अधिकांश यूनानी राजनीतिक शरणार्थियों को सोवियत अधिकारियों द्वारा स्थानांतरित किया गया था। प्राचीन काल में देश का दक्षिण भाग हेलेनिस्टिक सेल्यूसिड साम्राज्य का हिस्सा था, लेकिन वहां के कुछ यूनानी समुदायों ने तब से इसे आत्मसात कर लिया है। जातीय यूनानियों का प्रतिनिधित्व करने वाला सबसे महत्वपूर्ण संगठन ताशकंद का ग्रीक सांस्कृतिक संघ है। इस संगठन की गतिविधियों में ग्रीक भाषा निर्देश (कुल 19 छात्रों के साथ 571 कक्षाएं, वयस्कों के लिए कक्षाएं) और ग्रीक नृत्य और संगीत की शिक्षा शामिल है। उज़्बेकिस्तान में अधिकांश यूनानी राजनीतिक शरणार्थियों को सोवियत अधिकारियों द्वारा राजधानी ताशकंद में स्थानांतरित कर दिया गया था। उज़्बेकिस्तान की राजधानी में सबसे बड़ा यूनानी समुदाय रहता है क्योंकि उज़्बेकिस्तान में यूनानियों की संख्या लगभग 9,000 है। यह समुदाय रूस के यूनानियों से बना है जिन्हें 1940 के दशक में बलपूर्वक उस देश से उज़्बेकिस्तान भेज दिया गया था, और ग्रीस के राजनीतिक शरणार्थी थे। द्वितीय विश्व युद्ध से पहले लगभग 30,000 यूनानी देश में रहते थे और 11,00 से भी अधिक उज़्बेकिस्तान की राजधानी में सबसे बड़ा यूनानी समुदाय रहता है क्योंकि ग्रीस से निर्वासित होने के बाद सोवियत अधिकारियों द्वारा अधिकांश यूनानी राजनीतिक शरणार्थियों को यहीं पर स्थानांतरित किया गया था। नीचे एक निर्देश है जो एक कार्य का वर्णन करता है, जो एक इनपुट के साथ जोड़ा गया है जो प्रदान करता है आगे का सन्दर्भ. एक प्रतिक्रिया लिखें जो उचित रूप से अनुरोध को पूरा करती है।

हम देख सकते हैं कि फाइन-ट्यून किए गए मॉडल की प्रतिक्रियाएं पूर्व-प्रशिक्षित मॉडल की तुलना में सटीकता, प्रासंगिकता और स्पष्टता में महत्वपूर्ण सुधार दर्शाती हैं। कुछ मामलों में, आपके उपयोग के मामले के लिए पूर्व-प्रशिक्षित मॉडल का उपयोग करना पर्याप्त नहीं हो सकता है, इसलिए इस तकनीक का उपयोग करके इसे ठीक करने से समाधान आपके डेटासेट के लिए अधिक वैयक्तिकृत हो जाएगा।

क्लीन अप

जब आपने अपना प्रशिक्षण कार्य पूरा कर लिया है और अब मौजूदा संसाधनों का उपयोग नहीं करना चाहते हैं, तो निम्नलिखित कोड का उपयोग करके संसाधनों को हटा दें:

# Delete resources
# Delete the fine-tuned model
finetuned_predictor.delete_model() # Delete the fine-tuned model endpoint
finetuned_predictor.delete_endpoint()

निष्कर्ष

सेजमेकर पर लामा 2 न्यूरॉन मॉडल की तैनाती और फाइन-ट्यूनिंग बड़े पैमाने पर जेनरेटर एआई मॉडल के प्रबंधन और अनुकूलन में महत्वपूर्ण प्रगति दर्शाती है। ये मॉडल, जिनमें Llama-2-7b और Llama-2-13b जैसे वेरिएंट शामिल हैं, AWS Inferentia और ट्रेनियम आधारित उदाहरणों पर कुशल प्रशिक्षण और अनुमान के लिए न्यूरॉन का उपयोग करते हैं, जिससे उनके प्रदर्शन और स्केलेबिलिटी में वृद्धि होती है।

सेजमेकर जंपस्टार्ट यूआई और पायथन एसडीके के माध्यम से इन मॉडलों को तैनात करने की क्षमता लचीलापन और उपयोग में आसानी प्रदान करती है। न्यूरॉन एसडीके, लोकप्रिय एमएल फ्रेमवर्क और उच्च-प्रदर्शन क्षमताओं के समर्थन के साथ, इन बड़े मॉडलों के कुशल संचालन को सक्षम बनाता है।

विशिष्ट क्षेत्रों में उनकी प्रासंगिकता और सटीकता बढ़ाने के लिए डोमेन-विशिष्ट डेटा पर इन मॉडलों को ठीक करना महत्वपूर्ण है। प्रक्रिया, जिसे आप सेजमेकर स्टूडियो यूआई या पायथन एसडीके के माध्यम से संचालित कर सकते हैं, विशिष्ट आवश्यकताओं के लिए अनुकूलन की अनुमति देती है, जिससे त्वरित पूर्णता और प्रतिक्रिया गुणवत्ता के मामले में मॉडल प्रदर्शन में सुधार होता है।

तुलनात्मक रूप से, इन मॉडलों के पूर्व-प्रशिक्षित संस्करण, शक्तिशाली होते हुए भी अधिक सामान्य या दोहरावदार प्रतिक्रियाएँ प्रदान कर सकते हैं। फ़ाइन-ट्यूनिंग मॉडल को विशिष्ट संदर्भों के अनुरूप बनाती है, जिसके परिणामस्वरूप अधिक सटीक, प्रासंगिक और विविध प्रतिक्रियाएँ प्राप्त होती हैं। यह अनुकूलन विशेष रूप से पूर्व-प्रशिक्षित और परिष्कृत मॉडलों की प्रतिक्रियाओं की तुलना करते समय स्पष्ट होता है, जहां उत्तरार्द्ध आउटपुट की गुणवत्ता और विशिष्टता में उल्लेखनीय सुधार दर्शाता है। निष्कर्ष में, सेजमेकर पर न्यूरॉन लामा 2 मॉडल की तैनाती और फाइन-ट्यूनिंग उन्नत एआई मॉडल के प्रबंधन के लिए एक मजबूत ढांचे का प्रतिनिधित्व करती है, जो प्रदर्शन और प्रयोज्यता में महत्वपूर्ण सुधार की पेशकश करती है, खासकर जब विशिष्ट डोमेन या कार्यों के अनुरूप हो।

नमूना सेजमेकर का संदर्भ लेकर आज ही शुरुआत करें नोटबुक.

जीपीयू-आधारित उदाहरणों पर पूर्व-प्रशिक्षित लामा 2 मॉडल को तैनात करने और ठीक करने के बारे में अधिक जानकारी के लिए, देखें अमेज़ॅन सेजमेकर जम्पस्टार्ट पर टेक्स्ट जेनरेशन के लिए लामा 2 को फाइन-ट्यून करें और मेटा के लामा 2 फाउंडेशन मॉडल अब अमेज़न सेजमेकर जम्पस्टार्ट पर उपलब्ध हैं।

लेखक इवान क्रैविट्ज़, क्रिस्टोफर व्हिटन, एडम कोज़ड्रोविक्ज़, मनन शाह, जोनाथन गुइनेगैन और माइक जेम्स के तकनीकी योगदान को स्वीकार करना चाहेंगे।


लेखक के बारे में

एडब्ल्यूएस इनफेरेंटिया और एडब्ल्यूएस ट्रेनियम के साथ अमेज़ॅन सेजमेकर जम्पस्टार्ट में लागत प्रभावी ढंग से लामा 2 मॉडल को फाइन-ट्यून और तैनात करें | अमेज़ॅन वेब सेवाएँ प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.शिन हुआंग Amazon SageMaker JumpStart और Amazon SageMaker बिल्ट-इन एल्गोरिदम के लिए एक वरिष्ठ एप्लाइड साइंटिस्ट हैं। वह स्केलेबल मशीन लर्निंग एल्गोरिदम विकसित करने पर ध्यान केंद्रित करता है। उनकी शोध रुचि प्राकृतिक भाषा प्रसंस्करण, सारणीबद्ध डेटा पर व्याख्यात्मक गहन शिक्षा और गैर-पैरामीट्रिक स्पेस-टाइम क्लस्टरिंग के मजबूत विश्लेषण के क्षेत्र में है। उन्होंने एसीएल, आईसीडीएम, केडीडी सम्मेलनों और रॉयल स्टैटिस्टिकल सोसाइटी: सीरीज़ ए में कई पत्र प्रकाशित किए हैं।

एडब्ल्यूएस इनफेरेंटिया और एडब्ल्यूएस ट्रेनियम के साथ अमेज़ॅन सेजमेकर जम्पस्टार्ट में लागत प्रभावी ढंग से लामा 2 मॉडल को फाइन-ट्यून और तैनात करें | अमेज़ॅन वेब सेवाएँ प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.नितिन यूसेबियस AWS में एक सीनियर एंटरप्राइज सॉल्यूशंस आर्किटेक्ट हैं, जो सॉफ्टवेयर इंजीनियरिंग, एंटरप्राइज आर्किटेक्चर और AI/ML में अनुभवी हैं। उन्हें जेनरेटिव एआई की संभावनाएं तलाशने का गहरा शौक है। वह AWS प्लेटफ़ॉर्म पर अच्छी तरह से डिज़ाइन किए गए एप्लिकेशन बनाने में मदद करने के लिए ग्राहकों के साथ सहयोग करता है, और प्रौद्योगिकी चुनौतियों को हल करने और उनकी क्लाउड यात्रा में सहायता करने के लिए समर्पित है।

एडब्ल्यूएस इनफेरेंटिया और एडब्ल्यूएस ट्रेनियम के साथ अमेज़ॅन सेजमेकर जम्पस्टार्ट में लागत प्रभावी ढंग से लामा 2 मॉडल को फाइन-ट्यून और तैनात करें | अमेज़ॅन वेब सेवाएँ प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.मधुर प्रशांत AWS में जेनरेटिव AI स्पेस में काम करता है। वह मानवीय सोच और जनरेटिव एआई के प्रतिच्छेदन के बारे में भावुक हैं। उनकी रुचि जेनरेटिव एआई में है, विशेष रूप से ऐसे समाधान तैयार करने में जो सहायक और हानिरहित हों और सबसे बढ़कर ग्राहकों के लिए अनुकूल हों। काम के अलावा, उन्हें योग करना, लंबी पैदल यात्रा करना, अपने जुड़वां बच्चों के साथ समय बिताना और गिटार बजाना पसंद है।

एडब्ल्यूएस इनफेरेंटिया और एडब्ल्यूएस ट्रेनियम के साथ अमेज़ॅन सेजमेकर जम्पस्टार्ट में लागत प्रभावी ढंग से लामा 2 मॉडल को फाइन-ट्यून और तैनात करें | अमेज़ॅन वेब सेवाएँ प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.दीवान चौधरी Amazon Web Services के साथ एक सॉफ्टवेयर डेवलपमेंट इंजीनियर है। वह अमेज़ॅन सैजमेकर के एल्गोरिदम और जम्पस्टार्ट प्रसाद पर काम करता है। एआई/एमएल इन्फ्रास्ट्रक्चर के निर्माण के अलावा, वह स्केलेबल डिस्ट्रीब्यूटेड सिस्टम के निर्माण के बारे में भी भावुक हैं।

एडब्ल्यूएस इनफेरेंटिया और एडब्ल्यूएस ट्रेनियम के साथ अमेज़ॅन सेजमेकर जम्पस्टार्ट में लागत प्रभावी ढंग से लामा 2 मॉडल को फाइन-ट्यून और तैनात करें | अमेज़ॅन वेब सेवाएँ प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.हाओ झोउ अमेज़न सेजमेकर में एक शोध वैज्ञानिक हैं। इससे पहले, उन्होंने अमेज़ॅन फ्रॉड डिटेक्टर के लिए धोखाधड़ी का पता लगाने के लिए मशीन लर्निंग तरीके विकसित करने पर काम किया था। उन्हें विभिन्न वास्तविक दुनिया की समस्याओं के लिए मशीन लर्निंग, अनुकूलन और जेनरेटिव एआई तकनीकों को लागू करने का शौक है। उन्होंने नॉर्थवेस्टर्न यूनिवर्सिटी से इलेक्ट्रिकल इंजीनियरिंग में पीएचडी की है।

एडब्ल्यूएस इनफेरेंटिया और एडब्ल्यूएस ट्रेनियम के साथ अमेज़ॅन सेजमेकर जम्पस्टार्ट में लागत प्रभावी ढंग से लामा 2 मॉडल को फाइन-ट्यून और तैनात करें | अमेज़ॅन वेब सेवाएँ प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.किंग लैन एडब्ल्यूएस में सॉफ्टवेयर डेवलपमेंट इंजीनियर हैं। वह अमेज़ॅन में कई चुनौतीपूर्ण उत्पादों पर काम कर रहा है, जिसमें उच्च प्रदर्शन एमएल अनुमान समाधान और उच्च प्रदर्शन लॉगिंग सिस्टम शामिल हैं। किंग की टीम ने बहुत कम विलंबता के साथ अमेज़ॅन विज्ञापन में पहला बिलियन-पैरामीटर मॉडल सफलतापूर्वक लॉन्च किया। किंग को इंफ्रास्ट्रक्चर ऑप्टिमाइजेशन और डीप लर्निंग एक्सेलेरेशन का गहन ज्ञान है।

एडब्ल्यूएस इनफेरेंटिया और एडब्ल्यूएस ट्रेनियम के साथ अमेज़ॅन सेजमेकर जम्पस्टार्ट में लागत प्रभावी ढंग से लामा 2 मॉडल को फाइन-ट्यून और तैनात करें | अमेज़ॅन वेब सेवाएँ प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.डॉ आशीष खेतानी Amazon SageMaker बिल्ट-इन एल्गोरिदम के साथ एक वरिष्ठ एप्लाइड साइंटिस्ट हैं और मशीन लर्निंग एल्गोरिदम विकसित करने में मदद करते हैं। उन्होंने इलिनोइस विश्वविद्यालय उरबाना-शैंपेन से पीएचडी की उपाधि प्राप्त की। वह मशीन लर्निंग और सांख्यिकीय अनुमान में एक सक्रिय शोधकर्ता हैं, और उन्होंने NeurIPS, ICML, ICLR, JMLR, ACL और EMNLP सम्मेलनों में कई पत्र प्रकाशित किए हैं।

एडब्ल्यूएस इनफेरेंटिया और एडब्ल्यूएस ट्रेनियम के साथ अमेज़ॅन सेजमेकर जम्पस्टार्ट में लागत प्रभावी ढंग से लामा 2 मॉडल को फाइन-ट्यून और तैनात करें | अमेज़ॅन वेब सेवाएँ प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.डॉ. ली झांग अमेज़ॅन सेजमेकर जम्पस्टार्ट और अमेज़ॅन सेजमेकर बिल्ट-इन एल्गोरिदम के लिए एक प्रमुख उत्पाद प्रबंधक-तकनीकी है, एक सेवा जो डेटा वैज्ञानिकों और मशीन लर्निंग चिकित्सकों को प्रशिक्षण और उनके मॉडल को तैनात करने में मदद करती है, और अमेज़ॅन सेजमेकर के साथ सुदृढीकरण सीखने का उपयोग करती है। आईबीएम रिसर्च में एक प्रमुख अनुसंधान स्टाफ सदस्य और मास्टर आविष्कारक के रूप में उनके पिछले काम ने आईईईई इन्फोकॉम में टाइम पेपर पुरस्कार का परीक्षण जीता है।

एडब्ल्यूएस इनफेरेंटिया और एडब्ल्यूएस ट्रेनियम के साथ अमेज़ॅन सेजमेकर जम्पस्टार्ट में लागत प्रभावी ढंग से लामा 2 मॉडल को फाइन-ट्यून और तैनात करें | अमेज़ॅन वेब सेवाएँ प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.कामरान खान, एडब्ल्यूएस में एडब्ल्यूएस इनफेरेंटिना/ट्रायनियम के लिए वरिष्ठ तकनीकी व्यवसाय विकास प्रबंधक। उनके पास ग्राहकों को एडब्ल्यूएस इनफेरेंटिया और एडब्ल्यूएस ट्रेनियम का उपयोग करके गहन शिक्षण प्रशिक्षण और अनुमान कार्यभार को तैनात करने और अनुकूलित करने में मदद करने का एक दशक से अधिक का अनुभव है।

एडब्ल्यूएस इनफेरेंटिया और एडब्ल्यूएस ट्रेनियम के साथ अमेज़ॅन सेजमेकर जम्पस्टार्ट में लागत प्रभावी ढंग से लामा 2 मॉडल को फाइन-ट्यून और तैनात करें | अमेज़ॅन वेब सेवाएँ प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.जो सेनर्चिया AWS में वरिष्ठ उत्पाद प्रबंधक हैं। वह गहन शिक्षण, कृत्रिम बुद्धिमत्ता और उच्च-प्रदर्शन कंप्यूटिंग वर्कलोड के लिए अमेज़ॅन EC2 उदाहरणों को परिभाषित और निर्मित करता है।

समय टिकट:

से अधिक AWS मशीन लर्निंग

अमेज़ॅन रिकॉग्निशन कस्टम लेबल्स और एडब्ल्यूएस स्टेप फ़ंक्शंस का उपयोग करके पुरीना के पेटफाइंडर एप्लिकेशन के लिए पालतू जानवरों की प्रोफाइल को अनुकूलित करें | अमेज़न वेब सेवाएँ

स्रोत नोड: 1903180
समय टिकट: अक्टूबर 18, 2023