इस पोस्ट में, हम आपको दिखाते हैं कि टेक्स्ट सारांश के लिए उपयोग किए जाने वाले सबसे अधिक डाउनलोड किए गए हगिंग फेस प्री-प्रशिक्षित मॉडल में से एक को कैसे कार्यान्वित किया जाए, डिस्टिलबार्ट-सीएनएन-12-6, एक ज्यूपिटर नोटबुक के भीतर . का उपयोग कर अमेज़न SageMaker और सेजमेकर हगिंग फेस इंफरेंस टूलकिट. इस पोस्ट में दिखाए गए चरणों के आधार पर, आप से पाठ को सारांशित करने का प्रयास कर सकते हैं विकिपाठ्य-१०३ डाटासेट Fast.ai . द्वारा प्रबंधित, पर उपलब्ध है AWS पर ओपन डाटा की रजिस्ट्री.
वैश्विक डेटा वॉल्यूम ज़ेटाबाइट पैमाने पर बढ़ रहे हैं क्योंकि कंपनियां और उपभोक्ता डिजिटल उत्पादों और ऑनलाइन सेवाओं के अपने उपयोग का विस्तार करते हैं। इस बढ़ते डेटा को बेहतर ढंग से समझने के लिए, टेक्स्ट विश्लेषण के लिए मशीन लर्निंग (एमएल) प्राकृतिक भाषा प्रसंस्करण (एनएलपी) तकनीकों का विकास किया गया है, जिसमें टेक्स्ट सारांश, इकाई मान्यता, वर्गीकरण, अनुवाद, और बहुत कुछ शामिल हैं। AWS पूर्व-प्रशिक्षित प्रदान करता है AWS AI सेवाएं जिसे एपीआई कॉल का उपयोग करके अनुप्रयोगों में एकीकृत किया जा सकता है और इसके लिए एमएल अनुभव की आवश्यकता नहीं होती है। उदाहरण के लिए, Amazon Comprehend पाठ से अंतर्दृष्टि एकत्र करने के लिए एनएलपी कार्य जैसे कस्टम इकाई पहचान, भावना विश्लेषण, कुंजी वाक्यांश निष्कर्षण, विषय मॉडलिंग, और बहुत कुछ कर सकते हैं। यह प्रदर्शन कर सकता है विभिन्न प्रकार की भाषाओं पर पाठ विश्लेषण इसकी विभिन्न विशेषताओं के लिए।
टेक्स्ट सारांश बड़ी मात्रा में टेक्स्ट डेटा को समझने में एक सहायक तकनीक है क्योंकि यह स्रोत दस्तावेज़ों से प्रासंगिक रूप से सार्थक जानकारी का एक सबसेट बनाता है। आप इस एनएलपी तकनीक को लंबे समय तक टेक्स्ट दस्तावेज़ों और लेखों के लिए लागू कर सकते हैं, त्वरित खपत और अधिक प्रभावी दस्तावेज़ अनुक्रमण को सक्षम कर सकते हैं, उदाहरण के लिए मीटिंग्स से कॉल नोट्स को सारांशित करने के लिए।
गले लगना एनएलपी के लिए एक लोकप्रिय ओपन-सोर्स लाइब्रेरी है, जिसमें विभिन्न ढांचे के समर्थन के साथ 49,000 से अधिक भाषाओं में 185 से अधिक पूर्व-प्रशिक्षित मॉडल हैं। AWS और हगिंग फेस में a साझेदारी जो सेजमेकर के माध्यम से एडब्ल्यूएस डीप लर्निंग कंटेनर्स (डीएलसी) के एक सेट के साथ एक सहज एकीकरण की अनुमति देता है, जो पाइटोरच या टेन्सरफ्लो में प्रशिक्षण और अनुमान के लिए है, और सेजमेकर पायथन एसडीके के लिए हगिंग फेस एस्टिमेटर्स और प्रेडिक्टर्स। सेजमेकर की ये क्षमताएं डेवलपर्स और डेटा वैज्ञानिकों को एडब्ल्यूएस पर एनएलपी के साथ अधिक आसानी से शुरू करने में मदद करती हैं। PyTorch जैसे गहन शिक्षण ढांचे में ट्रांसफॉर्मर के साथ पाठ प्रसंस्करण आमतौर पर डेटा वैज्ञानिकों के लिए एक जटिल और समय लेने वाला कार्य है, जो अक्सर एनएलपी परियोजनाओं को विकसित करते समय निराशा और दक्षता की कमी का कारण बनता है। हगिंग फेस जैसे एआई समुदायों का उदय, सेजमेकर जैसे क्लाउड में एमएल सेवाओं की शक्ति के साथ मिलकर, इन टेक्स्ट प्रोसेसिंग कार्यों के विकास को तेज और सरल करता है। सेजमेकर आपको हगिंग फेस मॉडल बनाने, प्रशिक्षित करने, तैनात करने और संचालन में मदद करता है।
पाठ सारांश अवलोकन
आप किसी दस्तावेज़ में मुख्य वाक्यों की पहचान करने के लिए टेक्स्ट संक्षेपण लागू कर सकते हैं या कई दस्तावेज़ों में मुख्य वाक्यों की पहचान कर सकते हैं। पाठ संक्षेपण दो प्रकार के सारांश उत्पन्न कर सकता है: सार निकालने वाला और सारगर्भित। एक्सट्रैक्टिव सारांश में कोई मशीन-जनरेटेड टेक्स्ट नहीं होता है और इनपुट दस्तावेज़ से चुने गए महत्वपूर्ण वाक्यों का संग्रह होता है। सार सारांश में नए मानव-पठनीय वाक्यांश और पाठ सारांश मॉडल द्वारा उत्पन्न वाक्य शामिल हैं। अधिकांश पाठ सारांशीकरण प्रणालियाँ एक्स्ट्रेक्टिव सारांशीकरण पर आधारित होती हैं क्योंकि सटीक अमूर्त पाठ सारांशीकरण को प्राप्त करना कठिन होता है।
हगिंग फेस में 400 से अधिक पूर्व-प्रशिक्षित अत्याधुनिक हैं पाठ सारांश मॉडल उपलब्ध हैं, एनएलपी तकनीकों के विभिन्न संयोजनों को लागू करना। इन मॉडलों को विभिन्न डेटासेट पर प्रशिक्षित किया जाता है, जिन्हें प्रौद्योगिकी कंपनियों और हगिंग फेस समुदाय के सदस्यों द्वारा अपलोड और रखरखाव किया जाता है। आप सबसे अधिक डाउनलोड किए गए या सबसे अधिक पसंद किए गए मॉडल को फ़िल्टर कर सकते हैं, और उपयोग करते समय उन्हें सीधे लोड कर सकते हैं संक्षेपण पाइपलाइन हगिंग फेस ट्रांसफॉर्मर एपीआई. हगिंग फेस ट्रांसफॉर्मर एनएलपी कार्यान्वयन प्रक्रिया को सरल करता है ताकि उच्च-प्रदर्शन एनएलपी मॉडल को व्यापक एमएल ऑपरेशन ज्ञान की आवश्यकता के बिना, पाठ सारांश देने के लिए ठीक किया जा सके।
एडब्ल्यूएस पर हगिंग फेस टेक्स्ट सारांश मॉडल
सेजमेकर व्यवसाय विश्लेषकों, डेटा वैज्ञानिकों और एमएलओपीएस इंजीनियरों को एडब्ल्यूएस पर एमएल वर्कलोड को डिजाइन और संचालित करने के लिए उपकरणों का विकल्प प्रदान करता है। ये उपकरण आपको अपने इष्टतम परिणामों को प्राप्त करने के लिए एमएल मॉडल के तेजी से कार्यान्वयन और परीक्षण प्रदान करते हैं।
से सेजमेकर हगिंग फेस इंफरेंस टूलकिट, एक ओपन-सोर्स लाइब्रेरी, हम जुपिटर नोटबुक का उपयोग करके हगिंग फेस टेक्स्ट सारांश मॉडल को लागू करने और होस्ट करने के तीन अलग-अलग तरीकों की रूपरेखा तैयार करते हैं:
- हगिंग फेस सारांश पाइपलाइन - बनाओ हगिंग फेस सारांश पाइपलाइन का उपयोग "
summarization
"कार्य पहचानकर्ता आपके Jupyter नोटबुक के भीतर अनुमान के लिए एक डिफ़ॉल्ट पाठ सारांश मॉडल का उपयोग करने के लिए। ये पाइपलाइन जटिल कोड को दूर करती हैं, नौसिखिए एमएल प्रैक्टिशनर्स को एक सरल एपीआई की पेशकश करती है, जो एक निष्कर्ष समापन बिंदु को कॉन्फ़िगर किए बिना पाठ सारांश को जल्दी से लागू करता है। पाइपलाइन एमएल प्रैक्टिशनर को एक विशिष्ट पूर्व-प्रशिक्षित मॉडल और उससे जुड़े टोकननाइज़र का चयन करने की भी अनुमति देता है। टोकेनाइज़र टेक्स्ट को शब्दों या उपशब्दों में विभाजित करके मॉडल के लिए एक इनपुट के रूप में तैयार होने के लिए तैयार करते हैं, जिसे बाद में लुकअप टेबल के माध्यम से आईडी में बदल दिया जाता है। सरलता के लिए, निम्न कोड स्निपेट पाइपलाइनों का उपयोग करते समय डिफ़ॉल्ट मामले के लिए प्रदान करता है। डिस्टिलबार्ट-सीएनएन-12-6 मॉडल हगिंग फेस पर सबसे अधिक डाउनलोड किए जाने वाले सारांश मॉडल में से एक है और यह है संक्षेपण पाइपलाइन के लिए डिफ़ॉल्ट मॉडल. अंतिम पंक्ति पूर्व-प्रशिक्षित मॉडल को प्रदान किए गए दो तर्कों को दिए गए पाठ का सारांश प्राप्त करने के लिए कहती है। - पूर्व-प्रशिक्षित मॉडल के साथ सेजमेकर समापन बिंदु - से एक पूर्व-प्रशिक्षित मॉडल के साथ सेजमेकर एंडपॉइंट बनाएं हगिंग फेस मॉडल हब और इसे एक अनुमान समापन बिंदु पर परिनियोजित करें, जैसे कि निम्न कोड स्निपेट में ml.m5.xlarge उदाहरण। यह विधि अनुभवी एमएल प्रैक्टिशनर्स को विशिष्ट ओपन-सोर्स मॉडल को जल्दी से चुनने, उन्हें फाइन-ट्यून करने और मॉडल को उच्च-प्रदर्शन वाले इंट्रेंस इंस्टेंस पर तैनात करने की अनुमति देती है।
- एक प्रशिक्षित मॉडल के साथ सेजमेकर समापन बिंदु - एक में संग्रहीत प्रशिक्षित मॉडल के साथ एक सेजमेकर मॉडल एंडपॉइंट बनाएं अमेज़न सरल भंडारण सेवा (अमेज़ॅन एस 3) बाल्टी और इसे एक अनुमान समापन बिंदु पर तैनात करें। यह विधि अनुभवी एमएल प्रैक्टिशनर्स को उच्च प्रदर्शन वाले अनुमान उदाहरणों पर अमेज़ॅन एस 3 पर संग्रहीत अपने स्वयं के मॉडल को जल्दी से तैनात करने की अनुमति देती है। मॉडल को हगिंग फेस से डाउनलोड किया जाता है और संपीड़ित किया जाता है, और फिर अमेज़ॅन एस 3 पर अपलोड किया जा सकता है। यह चरण निम्नलिखित कोड स्निपेट में प्रदर्शित किया गया है:
आपके एमएल वर्कलोड को तैनात करने में आपकी सहायता के लिए एडब्ल्यूएस के पास कई संसाधन उपलब्ध हैं। मशीन लर्निंग लेंस का एडब्ल्यूएस वेल आर्किटेक्टेड फ्रेमवर्क संसाधनों के अनुकूलन और लागत को कम करने सहित एमएल वर्कलोड सर्वोत्तम प्रथाओं की सिफारिश करता है। ये अनुशंसित डिजाइन सिद्धांत यह सुनिश्चित करते हैं कि AWS पर अच्छी तरह से तैयार किए गए ML वर्कलोड को उत्पादन के लिए तैनात किया गया है। अमेज़ॅन सेजमेकर अनुमान अनुशंसाकर्ता इष्टतम अनुमान प्रदर्शन और लागत पर अपने एमएल मॉडल को तैनात करने के लिए सही उदाहरण चुनने में आपकी सहायता करता है। अनुमान अनुशंसाकर्ता मॉडल परिनियोजन को गति देता है और लोड परीक्षण को स्वचालित करके और एमएल उदाहरणों में मॉडल के प्रदर्शन को अनुकूलित करके बाजार में समय कम करता है।
अगले अनुभागों में, हम प्रदर्शित करते हैं कि एक S3 बाल्टी से एक प्रशिक्षित मॉडल को कैसे लोड किया जाए और इसे एक उपयुक्त अनुमान उदाहरण पर तैनात किया जाए।
.. पूर्वापेक्षाएँ
इस पूर्वाभ्यास के लिए, आपके पास निम्नलिखित शर्तें होनी चाहिए:
- An AWS खाता.
- भीतर एक ज्यूपिटर नोटबुक अमेज़ॅन सैजमेकर स्टूडियो या सेजमेकर नोटबुक इंस्टेंस। इस पोस्ट में, हम प्रदान किए गए कोड स्निपेट के साथ "पायथन 3 (पायटोर 1.4 पायथन 3.6 सीपीयू अनुकूलित)" छवि का उपयोग करते हैं, लेकिन आप किसी अन्य उच्च संस्करण PyTorch छवि का उपयोग कर सकते हैं उपलब्ध सेजमेकर गुठली.
- आपके S3 बकेट में एक डेटासेट, जैसे कि विकिपाठ्य-१०३ से डेटासेट AWS पर ओपन डाटा की रजिस्ट्री.
टेक्स्ट सारांश अनुमान के लिए हगिंग फेस मॉडल को सेजमेकर में लोड करें
हगिंग फेस पूर्व-प्रशिक्षित पाठ सारांश मॉडल डाउनलोड करने के लिए निम्नलिखित कोड का उपयोग करें डिस्टिलबार्ट-सीएनएन-12-6 और इसके टोकननाइज़र, और उन्हें स्थानीय रूप से सेजमेकर में अपनी ज्यूपिटर नोटबुक निर्देशिका में सहेजें:
सहेजे गए टेक्स्ट सारांश मॉडल और उसके टोकननाइज़र को tar.gz प्रारूप में संपीड़ित करें और संपीड़ित मॉडल आर्टिफैक्ट को S3 बाल्टी में अपलोड करें:
एक का चयन करें अनुमान डॉकर कंटेनर छवि पाठ सारांश अनुमान करने के लिए। Linux OS, PyTorch फ्रेमवर्क और हगिंग फेस ट्रांसफॉर्मर संस्करण को परिभाषित करें और निर्दिष्ट करें अमेज़ॅन इलास्टिक कम्प्यूट क्लाउड (अमेज़ॅन ईसी 2) कंटेनर चलाने के लिए इंस्टेंस प्रकार।
डॉकर छवि में उपलब्ध है अमेज़ॅन इलास्टिक कंटेनर रजिस्ट्री (अमेज़ॅन ईसीआर) उसी एडब्ल्यूएस खाते का, और उस कंटेनर छवि के लिए लिंक यूआरआई के रूप में वापस कर दिया जाता है।
पाठ सारांश मॉडल को परिभाषित करें जिसे चयनित कंटेनर छवि द्वारा परिनियोजित किया जाना है। निम्नलिखित कोड स्निपेट में, Amazon S3 पर अपलोड किया गया संपीड़ित मॉडल परिनियोजित किया गया है:
नमूना इनपुट पर परिनियोजित पाठ सारांश मॉडल का परीक्षण करें:
अनुमान कार्य के लिए इष्टतम EC2 उदाहरण का मूल्यांकन करने के लिए अनुमान अनुशंसाकर्ता का उपयोग करें
इसके बाद, JSON फॉर्मेट में इनपुट टेक्स्ट के कई पेलोड सैंपल बनाएं और उन्हें सिंगल पेलोड फाइल में कंप्रेस करें। इन पेलोड नमूनों का उपयोग विभिन्न ईसी 2 इंस्टेंस प्रकारों के बीच अनुमान प्रदर्शन की तुलना करने के लिए अनुमान अनुशंसाकर्ता द्वारा किया जाता है। प्रत्येक नमूना पेलोड को पहले दिखाए गए JSON प्रारूप से मेल खाना चाहिए। आप से उदाहरण प्राप्त कर सकते हैं विकिपाठ्य-१०३ डाटासेट Fast.ai . द्वारा प्रबंधित, पर उपलब्ध है AWS पर ओपन डाटा की रजिस्ट्री.
संपीड़ित पाठ सारांश मॉडल विरूपण साक्ष्य और संपीड़ित नमूना पेलोड फ़ाइल को S3 बकेट में अपलोड करें। हमने मॉडल को पहले चरण में अपलोड किया था, लेकिन स्पष्टता के लिए हम इसे फिर से अपलोड करने के लिए कोड शामिल करते हैं:
सेजमेकर पर उपलब्ध मानक एमएल मॉडल की सूची की समीक्षा करें आम मॉडल चिड़ियाघर, जैसे एनएलपी और कंप्यूटर विजन। पाठ सारांश अनुमान करने के लिए एक एनएलपी मॉडल का चयन करें:
निम्नलिखित उदाहरण का उपयोग करता है bert-base-cased
एनएलपी मॉडल। पाठ सारांश मॉडल को इसमें पंजीकृत करें SageMaker मॉडल रजिस्ट्री पिछले चरण से सही ढंग से पहचाने गए डोमेन, ढांचे और कार्य के साथ। इस उदाहरण के पैरामीटर निम्न कोड स्निपेट की शुरुआत में दिखाए गए हैं।
ईसी 2 इंस्टेंस प्रकारों की श्रेणी पर ध्यान दें, जिसका मूल्यांकन अनुमान अनुशंसाकर्ता द्वारा किया जाना है SupportedRealtimeInferenceInstanceTypes
निम्नलिखित कोड में। सुनिश्चित करें कि एडब्ल्यूएस खाते के लिए सेवा सीमाएं इस प्रकार के अनुमान नोड्स की तैनाती की अनुमति दें।
का उपयोग करके एक अनुमान अनुशंसाकर्ता डिफ़ॉल्ट कार्य बनाएँ ModelPackageVersion
पिछले चरण के परिणामस्वरूप। uuid
पायथन पुस्तकालय का उपयोग नौकरी के लिए एक अनूठा नाम उत्पन्न करने के लिए किया जाता है।
आप निम्न कोड चलाकर अनुमान अनुशंसाकर्ता नौकरी की स्थिति प्राप्त कर सकते हैं:
जब नौकरी की स्थिति है COMPLETED
, इंट्रेंस रिकमंडेशन डिफॉल्ट जॉब द्वारा मूल्यांकन किए गए EC2 इंस्टेंस प्रकारों के इंट्रेंस लेटेंसी, रनटाइम और अन्य मेट्रिक्स की तुलना करें। अपने उपयोग के मामले की आवश्यकताओं के आधार पर उपयुक्त नोड प्रकार का चयन करें।
निष्कर्ष
सेजमेकर हगिंग फेस मॉडल का उपयोग करने के कई तरीके प्रदान करता है; अधिक उदाहरणों के लिए, देखें एडब्ल्यूएस नमूने गिटहब. उपयोग के मामले की जटिलता और मॉडल को ठीक करने की आवश्यकता के आधार पर, आप इन मॉडलों का उपयोग करने का इष्टतम तरीका चुन सकते हैं। हगिंग फेस पाइपलाइन जल्दी से प्रयोग करने और उपयुक्त मॉडलों का चयन करने के लिए एक अच्छा प्रारंभिक बिंदु हो सकता है। जब आपको चयनित मॉडलों को अनुकूलित और पैरामीटराइज़ करने की आवश्यकता होती है, तो आप मॉडल डाउनलोड कर सकते हैं और उन्हें अनुकूलित अनुमान समापन बिंदुओं पर तैनात कर सकते हैं। किसी विशिष्ट उपयोग के मामले के लिए मॉडल को और अधिक फ़ाइन-ट्यून करने के लिए, आपको मॉडल को डाउनलोड करने के बाद उसे प्रशिक्षित करने की आवश्यकता होगी।
सामान्य रूप से एनएलपी मॉडल, जिसमें टेक्स्ट सारांश मॉडल भी शामिल है, उपयोग के मामले के लिए विशिष्ट डेटासेट पर प्रशिक्षित होने के बाद बेहतर प्रदर्शन करते हैं। सेजमेकर के एमएलओपी और मॉडल मॉनिटरिंग फीचर्स यह सुनिश्चित करते हैं कि तैनात मॉडल उम्मीदों के भीतर प्रदर्शन करना जारी रखे। इस पोस्ट में, हमने पाठ सारांश मॉडल को परिनियोजित करने के लिए सबसे उपयुक्त इंस्टेंस प्रकार का मूल्यांकन करने के लिए इंट्रेंस अनुशंसाकर्ता का उपयोग किया। ये अनुशंसाएं आपके एमएल उपयोग मामले के लिए प्रदर्शन और लागत को अनुकूलित कर सकती हैं।
लेखक के बारे में
डॉ. निदाल अलबेरूति मशीन लर्निंग सॉल्यूशंस के जुनून के साथ अमेज़न वेब सर्विसेज में सीनियर सॉल्यूशंस आर्किटेक्ट हैं। निदाल को विभिन्न स्तरों और कार्यक्षेत्रों में विभिन्न वैश्विक आईटी भूमिकाओं में काम करने का 25 से अधिक वर्षों का अनुभव है। Nidal कई AWS ग्राहकों के लिए एक विश्वसनीय सलाहकार के रूप में कार्य करता है ताकि उनकी क्लाउड अपनाने की यात्रा को समर्थन और गति प्रदान की जा सके।
डैरेन कोस लंदन में स्थित एक समाधान वास्तुकार है। वह यूके और आयरलैंड के एसएमबी ग्राहकों को क्लाउड पर खोज और नवाचार करने की सलाह देते हैं। डैरेन सर्वर रहित आर्किटेक्चर के साथ निर्मित अनुप्रयोगों में रुचि रखते हैं और उन्हें मशीन लर्निंग के साथ स्थिरता चुनौतियों को हल करने का शौक है।
- '
- "
- 000
- 10
- 100
- 28
- a
- About
- अमूर्त
- में तेजी लाने के
- लेखा
- सही
- पाना
- के पार
- पता
- दत्तक ग्रहण
- सलाहकार
- AI
- की अनुमति देता है
- वीरांगना
- अमेज़ॅन वेब सेवा
- राशियाँ
- विश्लेषण
- एपीआई
- Apple
- अनुप्रयोगों
- लागू करें
- तर्क
- लेख
- जुड़े
- स्वचालित
- उपलब्ध
- सम्मानित किया
- एडब्ल्यूएस
- क्योंकि
- शुरू
- जा रहा है
- BEST
- सर्वोत्तम प्रथाओं
- के बीच
- निर्माण
- व्यापार
- कॉल
- पा सकते हैं
- क्षमताओं
- मामला
- मामलों
- चुनौतियों
- चुनाव
- कक्षा
- वर्गीकरण
- बादल
- कोड
- संग्रह
- संयोजन
- संयुक्त
- समुदाय
- समुदाय
- कंपनियों
- जटिल
- गणना करना
- कंप्यूटर
- विन्यास
- उपभोक्ताओं
- खपत
- कंटेनर
- कंटेनरों
- जारी
- बनाना
- बनाता है
- रिवाज
- ग्राहक
- अनुकूलित
- तिथि
- दिन
- गहरा
- प्रसव
- दिखाना
- साबित
- निर्भर करता है
- तैनात
- तैनात
- तैनाती
- तैनाती
- डिज़ाइन
- डेवलपर्स
- विकासशील
- विकास
- विभिन्न
- मुश्किल
- डिजिटल
- सीधे
- डिस्प्ले
- डाक में काम करनेवाला मज़दूर
- चिकित्सक
- दस्तावेजों
- डोमेन
- डोमेन
- डाउनलोड
- से प्रत्येक
- आसानी
- प्रभावी
- दक्षता
- समर्थकारी
- endpoint
- इंजीनियर्स
- सत्ता
- वातावरण
- मूल्यांकन करें
- उदाहरण
- उदाहरण
- विस्तार
- उम्मीदों
- अनुभव
- अनुभवी
- प्रयोग
- व्यापक
- चेहरा
- फास्ट
- और तेज
- विशेषताएं
- निम्नलिखित
- प्रारूप
- ढांचा
- चौखटे
- से
- सामान्य जानकारी
- उत्पन्न
- उत्पन्न
- वैश्विक
- अच्छा
- बढ़ रहा है
- मदद
- सहायक
- मदद करता है
- उच्चतर
- कैसे
- How To
- HTTPS
- हब
- मानव पठनीय
- पहचान करना
- की छवि
- लागू करने के
- कार्यान्वयन
- कार्यान्वयन
- महत्वपूर्ण
- शामिल
- सहित
- करें-
- innovating
- निवेश
- अंतर्दृष्टि
- उदाहरण
- एकीकृत
- एकीकरण
- रुचि
- आयरलैंड
- IT
- खुद
- काम
- यात्रा
- कुंजी
- ज्ञान
- भाषा
- भाषाऐं
- बड़ा
- प्रमुख
- सीख रहा हूँ
- स्तर
- पुस्तकालय
- सीमाएं
- लाइन
- LINK
- लिनक्स
- सूची
- भार
- स्थानीय स्तर पर
- लंडन
- लुकअप
- मशीन
- यंत्र अधिगम
- बनाना
- बाजार
- मैच
- सार्थक
- बैठकों
- सदस्य
- मेट्रिक्स
- ML
- आदर्श
- मॉडल
- निगरानी
- अधिक
- अधिकांश
- विभिन्न
- प्राकृतिक
- अगला
- नोड्स
- नोटबुक
- नोट्स
- की पेशकश
- ऑफर
- ऑनलाइन
- खुला
- संचालित
- आपरेशन
- ऑप्टिमाइज़ करें
- अनुकूलित
- के अनुकूलन के
- अन्य
- अपना
- जुनून
- आवेशपूर्ण
- प्रदर्शन
- प्रदर्शन
- मुहावरों
- बिन्दु
- लोकप्रिय
- बिजली
- तैयार करना
- पिछला
- प्रक्रिया
- प्रसंस्करण
- उत्पादन
- उत्पादन
- उत्पाद
- परियोजनाओं
- प्रदान करना
- बशर्ते
- प्रदान करता है
- जल्दी से
- रेंज
- की सिफारिश की
- को कम करने
- क्षेत्र
- रजिस्टर
- का अनुरोध
- की आवश्यकता होती है
- आवश्यकताएँ
- उपयुक्त संसाधन चुनें
- जिसके परिणामस्वरूप
- भूमिका
- रन
- दौड़ना
- वही
- स्केल
- वैज्ञानिकों
- एसडीके
- निर्बाध
- चयनित
- भावुकता
- serverless
- सेवाएँ
- सेट
- कई
- दिखाया
- सरल
- एक
- So
- समाधान ढूंढे
- विशिष्ट
- गति
- मानक
- शुरू
- राज्य के-the-कला
- स्थिति
- भंडारण
- समर्थन
- स्थिरता
- सिस्टम
- कार्य
- तकनीक
- टेक्नोलॉजी
- परीक्षण
- RSI
- तीन
- यहाँ
- पहर
- बहुत समय लगेगा
- उपकरण
- विषय
- प्रशिक्षण
- अनुवाद करें
- विश्वस्त
- प्रकार
- आम तौर पर
- Uk
- के अंतर्गत
- समझना
- समझ
- अद्वितीय
- उपयोग
- विविधता
- विभिन्न
- संस्करण
- कार्यक्षेत्र
- दृष्टि
- संस्करणों
- तरीके
- वेब
- वेब सेवाओं
- अंदर
- बिना
- शब्द
- काम कर रहे
- X
- साल
- आपका