बहु-किरायेदार सास के लिए मशीन सीखने के अनुमान को कैसे स्केल करें प्लेटोब्लॉकचैन डेटा इंटेलिजेंस का उपयोग करें। लंबवत खोज। ऐ.

बहु-किरायेदार सास उपयोग के मामलों के लिए मशीन सीखने के अनुमान को कैसे मापें

यह पोस्ट Zendesk . में सीनियर स्टाफ मशीन लर्निंग इंजीनियर सौम्या मनुसानी के साथ लिखी गई है

Zendesk एक SaaS कंपनी है जो नींव के रूप में सादगी के साथ सभी के लिए समर्थन, बिक्री और ग्राहक जुड़ाव सॉफ़्टवेयर बनाती है। यह दुनिया भर में 170,000 से अधिक कंपनियों को अपने करोड़ों ग्राहकों को कुशलता से सेवा प्रदान करने में कामयाब होता है। Zendcaesk की मशीन लर्निंग टीम ग्राहक अनुभव टीमों को अपना सर्वश्रेष्ठ हासिल करने के लिए बढ़ाने के लिए जिम्मेदार है। डेटा और लोगों की शक्ति को मिलाकर, Zendesk ऐसे बुद्धिमान उत्पाद प्रदान करता है जो मैन्युअल कार्य को स्वचालित करके अपने ग्राहकों को अधिक उत्पादक बनाते हैं।

Zendesk 2015 से ML उत्पादों का निर्माण कर रहा है, जिनमें शामिल हैं उत्तर बॉट, संतुष्टि भविष्यवाणी, सामग्री संकेत, सुझाए गए मैक्रो, और भी कई। पिछले कुछ वर्षों में, गहन शिक्षण में वृद्धि के साथ, विशेष रूप से एनएलपी में, उन्होंने ज़ेंडेस्क समाधानों के साथ अपने ग्राहकों का समर्थन करने में वर्कफ़्लोज़ को स्वचालित करने और एजेंटों की सहायता करने के लिए बहुत सारे अवसर देखे। Zendesk वर्तमान में गहन शिक्षण मॉडल बनाने के लिए TensorFlow और PyTorch का उपयोग करता है।

Zendesk जैसे ग्राहकों ने Amazon Web Services (AWS) पर एक सेवा (SaaS) व्यवसायों के रूप में सफल, उच्च-स्तरीय सॉफ़्टवेयर का निर्माण किया है। एक सफल सास व्यवसाय मॉडल के लिए एक प्रमुख चालक अनुप्रयोग और बुनियादी ढांचे में बहु-किरायेदारी लागू करने की क्षमता है। यह लागत और परिचालन क्षमता को सक्षम बनाता है क्योंकि एप्लिकेशन को केवल एक बार बनाने की आवश्यकता होती है, लेकिन इसे कई बार इस्तेमाल किया जा सकता है और बुनियादी ढांचे को साझा किया जा सकता है। हम देखते हैं कि कई ग्राहक कंप्यूट, स्टोरेज, डेटाबेस से लेकर नेटवर्किंग तक, स्टैक की सभी परतों पर AWS पर सुरक्षित, लागत-कुशल, बहु-किरायेदार सिस्टम बनाते हैं, और अब हम देख रहे हैं कि ग्राहकों को इसे मशीन लर्निंग (ML) पर लागू करने की आवश्यकता है। )

मॉडल के पुन: उपयोग और हाइपर-वैयक्तिकरण के बीच कठिन ट्रेडऑफ़ बनाना

सास व्यवसायों के लिए बहु-किरायेदारी का आमतौर पर मतलब है कि कई उपयोगकर्ताओं (सास ग्राहकों) के बीच एक ही आवेदन का पुन: उपयोग किया जाता है। यह लागत क्षमता बनाता है और परिचालन ओवरहेड को कम करता है। हालांकि, सटीक भविष्यवाणियां करने के लिए मशीन लर्निंग मॉडल को कभी-कभी उच्च स्तर की विशिष्टता (हाइपर-पर्सनलाइज्ड) के लिए वैयक्तिकृत करने की आवश्यकता होती है। इसका मतलब है कि "एक बार निर्माण करें, कई बार उपयोग करें" सास प्रतिमान हमेशा एमएल पर लागू नहीं किया जा सकता है यदि मॉडल में विशिष्टता है। उदाहरण के लिए ग्राहक सहायता प्लेटफॉर्म के उपयोग के मामले को लें। समर्थन टिकट में उपयोगकर्ताओं द्वारा शामिल की जाने वाली भाषा इस बात पर निर्भर करती है कि यह राइड शेयर समस्या ("सवारी में बहुत अधिक समय लगा") या कपड़ों की खरीद समस्या ("धोए जाने पर मलिनकिरण") है। इस उपयोग के मामले में, सर्वोत्तम उपचारात्मक कार्रवाई की भविष्यवाणी करने की सटीकता में सुधार के लिए व्यवसाय डोमेन या उद्योग वर्टिकल के लिए विशिष्ट डेटासेट पर एक प्राकृतिक भाषा प्रसंस्करण (एनएलपी) मॉडल के प्रशिक्षण की आवश्यकता हो सकती है। अपने समाधानों में एमएल का लाभ उठाने की कोशिश करते समय Zendesk को ठीक इसी चुनौती का सामना करना पड़ता है। उन्हें हजारों अत्यधिक अनुकूलित एमएल मॉडल बनाने की जरूरत थी, प्रत्येक को एक विशिष्ट ग्राहक के लिए तैयार किया गया था। हजारों मॉडलों को प्रभावी ढंग से तैनात करने की इस चुनौती को हल करने के लिए, Zendesk ने Amazon SageMaker की ओर रुख किया।

इस पोस्ट में, हम दिखाते हैं कि कुछ नई सुविधाओं का उपयोग कैसे करें अमेज़न SageMaker, एक पूरी तरह से प्रबंधित मशीन लर्निंग सेवा, एक बहु-किरायेदार एमएल अनुमान क्षमता का निर्माण करने के लिए। हम एक वास्तविक दुनिया का उदाहरण भी साझा करते हैं कि कैसे Zendesk ने अपने एमएल मॉडल में हाइपर-वैयक्तिकरण का समर्थन करने में सक्षम होने और सेजमेकर मल्टी-मॉडल एंडपॉइंट्स का उपयोग करके बुनियादी ढांचे के लागत-कुशल, साझा उपयोग के बीच एक खुशहाल माध्यम को तैनात करके समान परिणाम प्राप्त किया। एमएमई)।

सेजमेकर बहु-मॉडल समापन बिंदु

सेजमेकर मल्टी-मॉडल एंडपॉइंट आपको एक या अधिक इंस्टेंस वाले एकल अनुमान समापन बिंदु के पीछे कई मॉडल तैनात करने में सक्षम बनाता है। प्रत्येक इंस्टेंस को इसकी मेमोरी और सीपीयू क्षमता तक कई मॉडलों को लोड और सेवा देने के लिए डिज़ाइन किया गया है। इस वास्तुकला के साथ, एक सास व्यवसाय कई मॉडलों की मेजबानी की रैखिक रूप से बढ़ती लागत को तोड़ सकता है और अनुप्रयोग स्टैक में कहीं और लागू बहु-किरायेदारी मॉडल के अनुरूप बुनियादी ढांचे का पुन: उपयोग प्राप्त कर सकता है।

निम्नलिखित आरेख एक सेजमेकर बहु-मॉडल समापन बिंदु की वास्तुकला को दर्शाता है।

बहु-किरायेदार सास के लिए मशीन सीखने के अनुमान को कैसे स्केल करें प्लेटोब्लॉकचैन डेटा इंटेलिजेंस का उपयोग करें। लंबवत खोज। ऐ.

सेजमेकर मल्टी-मॉडल एंडपॉइंट गतिशील रूप से मॉडल को लोड करता है अमेज़न सरल भंडारण सेवा (अमेज़ॅन एस 3) जब एंडपॉइंट पहली बार बनाया जाता है, तो सभी मॉडलों को डाउनलोड करने के बजाय, आह्वान किया जाता है। नतीजतन, एक मॉडल के लिए एक प्रारंभिक आमंत्रण बाद के अनुमानों की तुलना में उच्च अनुमान विलंबता देख सकता है, जो कम विलंबता के साथ पूरा होता है। यदि मॉडल पहले से ही कंटेनर पर लोड होने पर लोड किया जाता है, तो डाउनलोड चरण छोड़ दिया जाता है और मॉडल कम विलंबता के साथ संदर्भ देता है। उदाहरण के लिए, मान लें कि आपके पास एक मॉडल है जिसका उपयोग दिन में केवल कुछ ही बार किया जाता है। यह स्वचालित रूप से मांग पर लोड होता है, जबकि बार-बार एक्सेस किए जाने वाले मॉडल को मेमोरी में रखा जाता है और लगातार कम विलंबता के साथ लागू किया जाता है।

आइए इस बात पर करीब से नज़र डालें कि Zendesk ने अपने सुझाए गए मैक्रोज़ ML फ़ीचर के साथ लागत प्रभावी, हाइपर-स्केल ML परिनियोजन प्राप्त करने के लिए SageMaker MME का उपयोग कैसे किया।

Zendesk ने हाइपर-पर्सनलाइज्ड मॉडल क्यों बनाया

Zendesk के ग्राहक अलग-अलग उद्योग क्षेत्रों में अलग-अलग सपोर्ट टिकट सेमेन्टिक्स के साथ विश्व स्तर पर फैले हुए हैं। इसलिए, अपने ग्राहकों को सर्वोत्तम सेवा देने के लिए, उन्हें अक्सर व्यक्तिगत मॉडल बनाने पड़ते हैं जो ग्राहक-विशिष्ट समर्थन टिकट डेटा पर प्रशिक्षित होते हैं ताकि सही ढंग से इरादे, मैक्रोज़ और बहुत कुछ की पहचान हो सके।

अक्टूबर 2021 में, उन्होंने एक नया NLP ML फीचर, सुझाए गए मैक्रोज़ जारी किया, जो हजारों ग्राहक-विशिष्ट मॉडल पूर्वानुमानों के आधार पर मैक्रोज़ (पूर्वनिर्धारित क्रियाओं) की अनुशंसा करता है। Zendesk की ML टीम ने प्रति ग्राहक टिकट सामग्री और मैक्रोज़ के पिछले इतिहास से प्रशिक्षित एक TensorFlow-आधारित NLP क्लासिफायर मॉडल बनाया। इन मॉडलों के उपलब्ध होने के साथ, जब भी कोई एजेंट टिकट देखता है (जैसा कि निम्नलिखित स्क्रीनशॉट में दिखाया गया है) मैक्रो भविष्यवाणी की सिफारिश की जाती है, जो एजेंट को ग्राहकों को शीघ्रता से सेवा प्रदान करने में सहायता करता है। चूंकि मैक्रोज़ ग्राहकों के लिए विशिष्ट होते हैं, Zendesk को सटीक पूर्वानुमान प्रदान करने के लिए ग्राहक-विशिष्ट मॉडल की आवश्यकता होती है।

बहु-किरायेदार सास के लिए मशीन सीखने के अनुमान को कैसे स्केल करें प्लेटोब्लॉकचैन डेटा इंटेलिजेंस का उपयोग करें। लंबवत खोज। ऐ.

Zendesk के सुझाए गए मैक्रो के हुड के तहत

सुझाए गए मैक्रो मॉडल एनएलपी-आधारित तंत्रिका जाल हैं जो लगभग 7-15 एमबी आकार के होते हैं। मुख्य चुनौती इन हजारों मॉडलों को लागत-कुशल, विश्वसनीय और स्केलेबल समाधानों के साथ उत्पादन में लाना है।

प्रत्येक मॉडल में अलग-अलग ट्रैफ़िक पैटर्न होते हैं, प्रति सेकंड न्यूनतम दो अनुरोध और प्रति सेकंड सैकड़ों अनुरोधों की चोटी के साथ, प्रति दिन लाखों पूर्वानुमानों की सेवा करते हैं, जब मॉडल स्मृति में उपलब्ध होता है तो लगभग 100 मिलीसेकंड की मॉडल विलंबता होती है। सेजमेकर एंडपॉइंट्स कई एडब्ल्यूएस क्षेत्रों में तैनात हैं, जो प्रति मिनट प्रति एंडपॉइंट हजारों अनुरोधों की सेवा करते हैं।

एक ही एंडपॉइंट पर कई मॉडलों को होस्ट करने की अपनी क्षमता के साथ, सेजमेकर ने Zendesk को परिनियोजन ओवरहेड को कम करने और प्रति ग्राहक सिंगल-मॉडल एंडपॉइंट को तैनात करने की तुलना में एक लागत प्रभावी समाधान बनाने में मदद की। प्रति-मॉडल प्रबंधन पर यहां ट्रेडऑफ़ कम नियंत्रण है; हालांकि, यह एक ऐसा क्षेत्र है जहां Zendesk बहु-मॉडल समापन बिंदुओं को बेहतर बनाने के लिए AWS के साथ सहयोग कर रहा है।

सेजमेकर मल्टी-मॉडल सुविधाओं में से एक मॉडल की आलसी लोडिंग है, अर्थात, पहली बार लागू होने पर मॉडल को मेमोरी में लोड किया जाता है। यह स्मृति उपयोग को अनुकूलित करने के लिए है; हालांकि, यह पहले लोड पर प्रतिक्रिया समय स्पाइक्स का कारण बनता है, जिसे कोल्ड स्टार्ट समस्या के रूप में देखा जा सकता है। सुझाए गए मैक्रोज़ के लिए, यह एक चुनौती थी; हालांकि, Zendesk ने उत्पादन ट्रैफिक परोसने से पहले मॉडल को मेमोरी में लोड करने के लिए SageMaker एंडपॉइंट प्रावधान के शीर्ष पर एक प्रीलोडिंग कार्यक्षमता को लागू करके इस पर काबू पा लिया। दूसरे, MME स्मृति से अक्सर उपयोग किए जाने वाले मॉडलों को अनलोड करता है, इसलिए सभी मॉडलों पर लगातार कम विलंबता प्राप्त करने के लिए और अन्य कम सक्रिय मॉडलों को प्रभावित करने वाले "शोर पड़ोसियों" से बचने के लिए, Zendesk नई सुविधाओं को जोड़ने के लिए AWS के साथ सहयोग कर रहा है, जिसे बाद में पोस्ट में चर्चा की गई, सक्षम करने के लिए अधिक स्पष्ट प्रति-मॉडल प्रबंधन। इसके अतिरिक्त, एक अंतरिम समाधान के रूप में, Zendesk ने बहुत सारे मॉडल अनलोडिंग को कम करने के लिए MME बेड़े का सही आकार दिया है। इसके साथ, Zendesk अपने सभी ग्राहकों को कम विलंबता, लगभग 100 मिलीसेकंड के साथ पूर्वानुमान प्रदान करने में सक्षम है, और अभी भी समर्पित समापन बिंदुओं की तुलना में 90% लागत बचत प्राप्त करता है।

सही आकार के एमएमई पर, ज़ेंडेस्क ने लोड परीक्षण के दौरान देखा कि एमएमई के पीछे छोटे उदाहरणों की अधिक संख्या (क्षैतिज स्केलिंग पर पूर्वाग्रह) कम बड़ी मेमोरी इंस्टेंस (ऊर्ध्वाधर स्केलिंग) होने से बेहतर विकल्प था। Zendesk ने देखा कि एक बड़ी मेमोरी इंस्टेंस पर बहुत सारे मॉडल (उनके मामले में 500 TensorFlow मॉडल से अधिक) को बिन पैक करना अच्छी तरह से काम नहीं करता है क्योंकि स्मृति एक उदाहरण पर एकमात्र संसाधन नहीं है जो एक बाधा हो सकती है। अधिक विशेष रूप से, उन्होंने देखा कि TensorFlow ने प्रति मॉडल कई थ्रेड्स (3 x कुल इंस्टेंस vCPUs) को जन्म दिया, इसलिए एक ही इंस्टेंस पर 500 से अधिक मॉडल लोड करने से कर्नेल स्तर की सीमा को अधिकतम थ्रेड्स पर भंग किया जा सकता है जो एक इंस्टेंस पर पैदा हो सकते हैं। कम, बड़े उदाहरणों का उपयोग करने के साथ एक और समस्या तब हुई जब Zendesk ने MME के ​​पीछे कुछ उदाहरणों पर थ्रॉटलिंग (एक सुरक्षा तंत्र के रूप में) का अनुभव किया क्योंकि अद्वितीय मॉडल आमंत्रण प्रति सेकंड दर से अधिक था मल्टी मॉडल सर्वर (एमएमएस) एक ही उदाहरण पर इंस्टेंस को ब्राउन किए बिना सुरक्षित रूप से संभाल सकता है। यह एक और मुद्दा था जिसे अधिक से अधिक छोटे उदाहरणों के उपयोग से हल किया गया था।

अवलोकनीय दृष्टिकोण से, जो किसी भी उत्पादन अनुप्रयोग का एक महत्वपूर्ण घटक है, अमेज़ॅन क्लाउडवॉच इनवोकेशन, सीपीयू, मेमोरी यूटिलाइजेशन, और मल्टी मॉडल-विशिष्ट मेट्रिक्स जैसे मेट्रिक्स में लोडेड मॉडल, मॉडल लोडिंग टाइम, मॉडल लोड वेटिंग टाइम और मॉडल कैश हिट जैसे मेट्रिक्स सूचनात्मक हैं। विशेष रूप से, मॉडल विलंबता के टूटने से Zendesk को कोल्ड स्टार्ट की समस्या और उसके प्रभाव को समझने में मदद मिली।

एमएमई ऑटो स्केलिंग के हुड के तहत

प्रत्येक बहु-मॉडल समापन बिंदु के पीछे, मॉडल होस्टिंग उदाहरण हैं, जैसा कि निम्नलिखित आरेख में दर्शाया गया है। ये इंस्टेंस मॉडल के ट्रैफ़िक पैटर्न के आधार पर मेमोरी से कई मॉडल लोड और बेदखल करते हैं।

बहु-किरायेदार सास के लिए मशीन सीखने के अनुमान को कैसे स्केल करें प्लेटोब्लॉकचैन डेटा इंटेलिजेंस का उपयोग करें। लंबवत खोज। ऐ.

सेजमेकर एक मॉडल के लिए अनुमान के अनुरोधों को उस उदाहरण के लिए रूट करना जारी रखता है जहां मॉडल पहले से ही लोड हो चुका है, जैसे कि कैश्ड मॉडल कॉपी से अनुरोध किए जाते हैं (निम्न आरेख देखें, जो पहले भविष्यवाणी अनुरोध बनाम कैश्ड भविष्यवाणी अनुरोध के लिए अनुरोध पथ दिखाता है। रास्ता)। हालाँकि, यदि मॉडल को कई आमंत्रण अनुरोध प्राप्त होते हैं, और मल्टी-मॉडल समापन बिंदु के लिए अतिरिक्त उदाहरण हैं, तो SageMaker वृद्धि को समायोजित करने के लिए कुछ अनुरोधों को किसी अन्य उदाहरण पर रूट करता है। सेजमेकर में स्वचालित मॉडल स्केलिंग का लाभ उठाने के लिए, सुनिश्चित करें कि आपके पास है इंस्टेंस ऑटो स्केलिंग सेट अप अतिरिक्त उदाहरण क्षमता का प्रावधान करने के लिए। एंडपॉइंट फ़्लीट में और इंस्टेंस जोड़ने के लिए कस्टम पैरामीटर या इनवोकेशन प्रति मिनट (अनुशंसित) के साथ अपनी एंडपॉइंट-स्तरीय स्केलिंग नीति सेट करें।

बहु-किरायेदार सास के लिए मशीन सीखने के अनुमान को कैसे स्केल करें प्लेटोब्लॉकचैन डेटा इंटेलिजेंस का उपयोग करें। लंबवत खोज। ऐ.

MME के ​​​​लिए सबसे उपयुक्त मामलों का उपयोग करें

सेजमेकर मल्टी-मॉडल एंडपॉइंट बड़ी संख्या में समान मॉडलों को होस्ट करने के लिए उपयुक्त हैं जिन्हें आप एक साझा सर्विंग कंटेनर के माध्यम से परोस सकते हैं और एक ही समय में सभी मॉडलों तक पहुंचने की आवश्यकता नहीं है। एमएमई उन मॉडलों के लिए सबसे उपयुक्त है जो आकार और आमंत्रण विलंबता में समान हैं। मॉडल आकार में कुछ भिन्नता स्वीकार्य है; उदाहरण के लिए, Zendesk के मॉडल 10-50 Mb तक के होते हैं, जो ठीक काम करता है, लेकिन आकार में भिन्नताएं जो 10, 50, या 100 गुना अधिक के कारक हैं, उपयुक्त नहीं हैं। बड़े मॉडल पर्याप्त मेमोरी स्पेस को समायोजित करने के लिए अधिक संख्या में लोड और छोटे मॉडल के अनलोड का कारण बन सकते हैं, जिसके परिणामस्वरूप समापन बिंदु पर अतिरिक्त विलंबता हो सकती है। बड़े मॉडलों की प्रदर्शन विशेषताओं में अंतर भी सीपीयू जैसे संसाधनों का असमान रूप से उपभोग कर सकता है, जो उदाहरण पर अन्य मॉडलों को प्रभावित कर सकता है।

MME को सह-होस्टिंग मॉडल के लिए भी डिज़ाइन किया गया है जो समान ML ढांचे का उपयोग करते हैं क्योंकि वे कई मॉडलों को लोड करने के लिए साझा कंटेनर का उपयोग करते हैं। इसलिए, यदि आपके पास अपने मॉडल बेड़े (जैसे कि PyTorch और TensorFlow) में ML फ्रेमवर्क का मिश्रण है, तो SageMaker समर्पित समापन बिंदु या मल्टी-कंटेनर होस्टिंग एक बेहतर विकल्प है। अंत में, एमएमई उन अनुप्रयोगों के लिए उपयुक्त है जो कभी-कभार कोल्ड स्टार्ट लेटेंसी पेनल्टी को सहन कर सकते हैं क्योंकि अक्सर इस्तेमाल किए जाने वाले मॉडल को अक्सर इस्तेमाल किए जाने वाले मॉडल के पक्ष में ऑफ-लोड किया जा सकता है। यदि आपके पास बार-बार एक्सेस किए जाने वाले मॉडलों की एक लंबी पूंछ है, तो एक बहु-मॉडल समापन बिंदु कुशलतापूर्वक इस ट्रैफ़िक की सेवा कर सकता है और महत्वपूर्ण लागत बचत को सक्षम कर सकता है।

सारांश

इस पोस्ट में, आपने सीखा कि कैसे सास और मल्टी-टेनेंसी एमएल से संबंधित हैं और कैसे सेजमेकर मल्टी-मॉडल एंडपॉइंट्स एमएल अनुमान के लिए मल्टी-टेनेंसी और लागत-दक्षता को सक्षम करते हैं। आपने Zendesk के प्रति ग्राहक ML मॉडल के बहु-किरायेदार उपयोग के मामले के बारे में सीखा और कैसे उन्होंने अपने सुझाए गए मैक्रोज़ फ़ीचर के लिए SageMaker MME में हज़ारों ML मॉडल होस्ट किए और समर्पित समापन बिंदुओं की तुलना में अनुमान पर 90% लागत बचत हासिल की। हाइपर-वैयक्तिकरण उपयोग के मामलों में हजारों एमएल मॉडल की आवश्यकता हो सकती है, और एमएमई इस उपयोग के मामले के लिए एक लागत प्रभावी विकल्प है। हम आपको प्रत्येक वैयक्तिकृत मॉडल के लिए कम विलंबता और अधिक बारीक नियंत्रण वाले मॉडल होस्ट करने में सक्षम बनाने के लिए एमएमई में सुधार करना जारी रखेंगे। एमएमई के साथ आरंभ करने के लिए, देखें एक कंटेनर में एक समापन बिंदु के पीछे कई मॉडल होस्ट करें.


लेखक के बारे में

बहु-किरायेदार सास के लिए मशीन सीखने के अनुमान को कैसे स्केल करें प्लेटोब्लॉकचैन डेटा इंटेलिजेंस का उपयोग करें। लंबवत खोज। ऐ.सैयद जाफ़री एडब्ल्यूएस के साथ सीनियर सॉल्यूशंस आर्किटेक्ट हैं। वह मध्यम आकार के संगठनों से लेकर बड़े उद्यमों, वित्तीय सेवाओं से लेकर आईएसवी तक कई कंपनियों के साथ काम करता है, जिससे उन्हें क्लाउड में सुरक्षित, लचीला, स्केलेबल और उच्च प्रदर्शन एप्लिकेशन बनाने और संचालित करने में मदद मिलती है।

बहु-किरायेदार सास के लिए मशीन सीखने के अनुमान को कैसे स्केल करें प्लेटोब्लॉकचैन डेटा इंटेलिजेंस का उपयोग करें। लंबवत खोज। ऐ.सौम्या मनुसानी Zendesk में वरिष्ठ स्टाफ मशीन लर्निंग इंजीनियर हैं। वह एनएलपी-आधारित मशीन लर्निंग सुविधाओं का उत्पादन करने पर काम करती है जो हजारों Zendesk Enterprise ग्राहकों के लिए एजेंट उत्पादकता में सुधार पर ध्यान केंद्रित करती है। उसके पास हजारों व्यक्तिगत मॉडलों के लिए स्वचालित प्रशिक्षण पाइपलाइन बनाने और सुरक्षित, लचीला, स्केलेबल और उच्च-प्रदर्शन अनुप्रयोगों का उपयोग करके उनकी सेवा करने का अनुभव है। अपने खाली समय में, वह पहेलियाँ हल करना और पेंटिंग करना पसंद करती हैं।

बहु-किरायेदार सास के लिए मशीन सीखने के अनुमान को कैसे स्केल करें प्लेटोब्लॉकचैन डेटा इंटेलिजेंस का उपयोग करें। लंबवत खोज। ऐ. सौरभ त्रिकंडे Amazon SageMaker Inference के वरिष्ठ उत्पाद प्रबंधक हैं। उन्हें ग्राहकों के साथ काम करने और मशीन लर्निंग को अधिक सुलभ बनाने का शौक है। अपने खाली समय में, सौरभ को लंबी पैदल यात्रा, नवीन तकनीकों के बारे में सीखना, टेकक्रंच का अनुसरण करना और अपने परिवार के साथ समय बिताना पसंद है।

बहु-किरायेदार सास के लिए मशीन सीखने के अनुमान को कैसे स्केल करें प्लेटोब्लॉकचैन डेटा इंटेलिजेंस का उपयोग करें। लंबवत खोज। ऐ.दीप्ति राघ Amazon SageMaker टीम में सॉफ्टवेयर डेवलपमेंट इंजीनियर हैं। उनका वर्तमान कार्य मशीन लर्निंग मॉडल को कुशलतापूर्वक होस्ट करने के लिए सुविधाओं के निर्माण पर केंद्रित है। अपने खाली समय में, वह यात्रा करना, लंबी पैदल यात्रा करना और पौधों को उगाना पसंद करती हैं।

समय टिकट:

से अधिक AWS मशीन लर्निंग

अमेज़ॅन टाइमस्ट्रीम और अमेज़ॅन लुकआउट फॉर इक्विपमेंट के साथ विसंगतियों का पता लगाने और डाउनटाइम की भविष्यवाणी करने के लिए मशीन लर्निंग का उपयोग करें

स्रोत नोड: 1780075
समय टिकट: दिसम्बर 29, 2022