कई उपयोग के मामलों में व्याख्याकृत पाठ की पहचान करना व्यावसायिक महत्व रखता है। उदाहरण के लिए, वाक्य व्याख्याओं की पहचान करके, एक पाठ सारांश प्रणाली अनावश्यक जानकारी को हटा सकती है। एक अन्य एप्लिकेशन साहित्यिक चोरी वाले दस्तावेज़ों की पहचान करना है। इस पोस्ट में, हम a को फाइन-ट्यून करते हैं गले लगना ट्रांसफार्मर चालू अमेज़न SageMaker कुछ चरणों में व्याख्याकृत वाक्य युग्मों की पहचान करना।
वास्तव में एक मजबूत मॉडल संक्षिप्त पाठ की पहचान कर सकता है जब इस्तेमाल की गई भाषा पूरी तरह से अलग हो सकती है, और जब इस्तेमाल की गई भाषा में उच्च शाब्दिक ओवरलैप हो तो अंतर की भी पहचान कर सकता है। इस पोस्ट में, हम बाद वाले पहलू पर ध्यान केंद्रित करते हैं। विशेष रूप से, हम यह देखते हैं कि क्या हम एक ऐसे मॉडल को प्रशिक्षित कर सकते हैं जो उच्च शाब्दिक ओवरलैप वाले और बहुत अलग या विपरीत अर्थ वाले दो वाक्यों के बीच अंतर की पहचान कर सके। उदाहरण के लिए, निम्नलिखित वाक्यों में बिल्कुल वही शब्द हैं लेकिन अर्थ विपरीत हैं:
- मैंने न्यूयॉर्क से पेरिस के लिए उड़ान भरी
- मैंने पेरिस से न्यूयॉर्क के लिए उड़ान भरी
समाधान अवलोकन
हम आपको निम्न उच्च-स्तरीय चरणों के बारे में बताते हैं:
- वातावरण स्थापित करें.
- डेटा तैयार करें।
- डेटासेट को टोकनाइज़ करें।
- मॉडल को फाइन-ट्यून करें.
- मॉडल तैनात करें और अनुमान लगाएं।
- मॉडल प्रदर्शन का मूल्यांकन करें.
यदि आप परिवेश की स्थापना को छोड़ना चाहते हैं, तो आप निम्नलिखित नोटबुक का उपयोग कर सकते हैं GitHub और सेजमेकर में कोड चलाएँ।
हगिंग फेस और एडब्ल्यूएस ने 2022 की शुरुआत में एक साझेदारी की घोषणा की, जिससे सेजमेकर पर हगिंग फेस मॉडल को प्रशिक्षित करना और भी आसान हो गया। यह कार्यक्षमता हगिंग फेस के विकास के माध्यम से उपलब्ध है एडब्ल्यूएस डीप लर्निंग कंटेनर्स (डीएलसी). इन कंटेनरों में हगिंग फेस ट्रांसफॉर्मर, टोकनाइज़र और डेटासेट लाइब्रेरी शामिल हैं, जो हमें प्रशिक्षण और अनुमान कार्यों के लिए इन संसाधनों का उपयोग करने की अनुमति देती है। उपलब्ध डीएलसी छवियों की सूची के लिए, देखें उपलब्ध डीप लर्निंग कंटेनर इमेज. उनका रखरखाव किया जाता है और नियमित रूप से सुरक्षा पैच के साथ अद्यतन किया जाता है। आप इन डीएलसी और के साथ हगिंग फेस मॉडल को प्रशिक्षित करने के कई उदाहरण पा सकते हैं हगिंग फेस पायथन एसडीके निम्नलिखित में गीथहब रेपो.
PAWS डेटासेट
कुशल वाक्य युग्म डेटासेट की कमी को महसूस करते हुए, जो मूल पैराफ़्रेज़ के बिना उच्च शाब्दिक ओवरलैप प्रदर्शित करते हैं पंजे 2019 में जारी किए गए डेटासेट का उद्देश्य प्राकृतिक भाषा प्रसंस्करण (एनएलपी) समुदाय को पैराफ्रेज़ डिटेक्शन मॉडल के प्रशिक्षण और मूल्यांकन के लिए एक नया संसाधन प्रदान करना है। PAWS वाक्य जोड़े का उपयोग करके दो चरणों में तैयार किया जाता है विकिपीडिया और Quora प्रश्न युग्म (क्यूक्यूपी) डेटासेट। एक भाषा मॉडल एक वाक्य युग्म उत्पन्न करने के लिए पहले शब्दों को एक ही बैग ऑफ वर्ड्स (बीओडब्ल्यू) के साथ वाक्य युग्म में बदलता है। फिर एक पिछला अनुवाद चरण उच्च BOW ओवरलैप के साथ लेकिन एक अलग शब्द क्रम का उपयोग करके पैराफ्रेश उत्पन्न करता है। अंतिम PAWS डेटासेट में कुल 108,000 मानव-लेबल और 656,000 शोर लेबल वाले जोड़े शामिल हैं।
इस पोस्ट में, हम उपयोग करते हैं PAWS-विकी लेबल (अंतिम) हगिंग फेस से डेटासेट। हगिंग फेस ने पहले ही हमारे लिए डेटा विभाजन कर दिया है, जिसके परिणामस्वरूप प्रशिक्षण डेटासेट में 49,000 वाक्य जोड़े और सत्यापन और परीक्षण डेटासेट के लिए 8,000 वाक्य जोड़े हैं। प्रशिक्षण डेटासेट से दो वाक्य युग्म उदाहरण निम्नलिखित उदाहरण में दिखाए गए हैं। 1 का लेबल इंगित करता है कि दोनों वाक्य एक-दूसरे के संक्षिप्त रूप हैं।
वाक्य 1 | वाक्य 2 | लेबल |
यद्यपि विनिमेय हैं, दोनों कारों के शरीर के टुकड़े समान नहीं हैं। | हालांकि समान, दोनों कारों के शरीर के हिस्से आपस में बदले नहीं जा सकते। | 0 |
काट्ज़ का जन्म 1947 में स्वीडन में हुआ था और 1 साल की उम्र में वे न्यूयॉर्क शहर चले गए। | काट्ज़ का जन्म 1947 में स्वीडन में हुआ था और वह एक साल की उम्र में न्यूयॉर्क चले गए थे। | 1 |
.. पूर्वापेक्षाएँ
आपको निम्नलिखित शर्तें पूरी करनी होंगी:
- यदि आपके पास AWS खाता नहीं है तो उसके लिए साइन अप करें। अधिक जानकारी के लिए देखें अमेज़ॅन सेजमेकर पूर्वापेक्षाएँ सेट करें.
- उपयोग शुरू करें SageMaker नोटबुक उदाहरण.
- दाएँ सेट करें AWS पहचान और अभिगम प्रबंधन (आईएएम) अनुमतियाँ। अधिक जानकारी के लिए देखें सेजमेकर रोल्स.
पर्यावरण स्थापित करें
इससे पहले कि हम मॉडल फाइन-ट्यूनिंग के लिए अपने डेटा की जांच और तैयारी शुरू करें, हमें अपना वातावरण स्थापित करने की आवश्यकता है। आइए सेजमेकर नोटबुक इंस्टेंस को स्पिन करके शुरुआत करें। अपने AWS खाते में एक AWS क्षेत्र चुनें और निर्देशों का पालन करें एक सेजमेकर नोटबुक इंस्टेंस बनाएं. नोटबुक इंस्टेंस को स्पिन होने में कुछ मिनट लग सकते हैं।
जब नोटबुक इंस्टेंस चल रहा हो, तो चुनें conda_pytorch_p38
आपके कर्नेल प्रकार के रूप में। हगिंग फेस डेटासेट का उपयोग करने के लिए, हमें सबसे पहले हगिंग फेस लाइब्रेरी को स्थापित और आयात करना होगा:
इसके बाद, आइए एक सेजमेकर सत्र स्थापित करें। हम डिफ़ॉल्ट का उपयोग करते हैं अमेज़न सरल भंडारण सेवा (अमेज़ॅन S3) PAWS डेटासेट और मॉडल कलाकृतियों को संग्रहीत करने के लिए सेजमेकर सत्र से जुड़ी बाल्टी:
डेटा तैयार करें
हम इसके साथ PAWS डेटासेट का हगिंग फेस संस्करण लोड कर सकते हैं load_dataset()
आज्ञा। यह कॉल हगिंग फेस गिटहब रिपॉजिटरी से PAWS पायथन प्रोसेसिंग स्क्रिप्ट को डाउनलोड और आयात करता है, जो फिर स्क्रिप्ट में संग्रहीत मूल URL से PAWS डेटासेट को डाउनलोड करता है और डेटा को ड्राइव पर एरो टेबल के रूप में कैश करता है। निम्नलिखित कोड देखें:
इससे पहले कि हम अपने पूर्व-प्रशिक्षित BERT मॉडल को ठीक करना शुरू करें, आइए अपने लक्ष्य वर्ग वितरण पर नज़र डालें। हमारे उपयोग के मामले के लिए, PAWS डेटासेट में बाइनरी लेबल हैं (0 इंगित करता है कि वाक्य जोड़ी एक पैराफ़्रेज़ नहीं है, और 1 इंगित करता है कि यह है)। आइए वर्ग वितरण देखने के लिए एक कॉलम चार्ट बनाएं, जैसा कि निम्नलिखित कोड में दिखाया गया है। हम देखते हैं कि हमारे प्रशिक्षण सेट में थोड़ा वर्ग असंतुलन का मुद्दा है (56% नकारात्मक नमूने बनाम 44% सकारात्मक नमूने)। हालाँकि, असंतुलन इतना छोटा है कि वर्ग असंतुलन शमन तकनीकों को नियोजित करने से बचा जा सकता है।
डेटासेट को टोकनाइज़ करें
इससे पहले कि हम फाइन-ट्यूनिंग शुरू कर सकें, हमें अपने डेटासेट को टोकनाइज़ करना होगा। आरंभिक बिंदु के रूप में, मान लें कि हम इसे बेहतर बनाना और मूल्यांकन करना चाहते हैं roberta-base
ट्रांसफार्मर. हमने चयन किया roberta-base
क्योंकि यह एक सामान्य-उद्देश्य वाला ट्रांसफार्मर है जिसे अंग्रेजी डेटा के एक बड़े भंडार पर पूर्व-प्रशिक्षित किया गया था और इसने अक्सर विभिन्न एनएलपी कार्यों पर उच्च प्रदर्शन दिखाया है। मॉडल मूल रूप से पेपर में पेश किया गया था RoBERTa: एक मजबूत अनुकूलित BERT Pretraining दृष्टिकोण.
हम वाक्यों पर a के साथ टोकननाइजेशन करते हैं roberta-base
हगिंग फेस से टोकननाइज़र, जो दस्तावेज़ को टोकन में विभाजित करने के लिए बाइट-स्तरीय बाइट जोड़ी एन्कोडिंग का उपयोग करता है। रॉबर्टा टोकनाइज़र के बारे में अधिक जानकारी के लिए देखें रोबर्टाटोकनाइज़र. क्योंकि हमारे इनपुट वाक्य जोड़े हैं, हमें दोनों वाक्यों को एक साथ टोकनाइज़ करने की आवश्यकता है। चूँकि अधिकांश BERT मॉडलों को इनपुट के लिए एक निश्चित टोकनयुक्त इनपुट लंबाई की आवश्यकता होती है, हम निम्नलिखित पैरामीटर सेट करते हैं: max_len=128
और truncation=True
। निम्नलिखित कोड देखें:
हमारे BERT मॉडल को ठीक करने के लिए अंतिम प्रीप्रोसेसिंग चरण टोकनयुक्त ट्रेन और सत्यापन डेटासेट को PyTorch टेंसर में परिवर्तित करना और उन्हें हमारे S3 बकेट में अपलोड करना है:
मॉडल को फाइन-ट्यून करें
अब जब हमने डेटा तैयार करना पूरा कर लिया है, तो हम अपने पूर्व-प्रशिक्षित को बेहतर बनाने के लिए तैयार हैं roberta-base
पैराफ़्रेज़ पहचान कार्य पर मॉडल। हम दो चरणों में फाइन-ट्यूनिंग प्रक्रिया शुरू करने के लिए सेजमेकर हगिंग फेस एस्टिमेटर क्लास का उपयोग कर सकते हैं। पहला कदम प्रशिक्षण हाइपरपैरामीटर और मीट्रिक परिभाषाओं को निर्दिष्ट करना है। मेट्रिक परिभाषा चर हगिंग फेस एस्टीमेटर को बताता है कि मॉडल के प्रशिक्षण लॉग से किस प्रकार के मेट्रिक्स निकालने हैं। यहां, हम मुख्य रूप से प्रत्येक प्रशिक्षण युग में सत्यापन सेट मेट्रिक्स निकालने में रुचि रखते हैं।
दूसरा कदम हगिंग फेस एस्टिमेटर को इंस्टेंट करना और इसके साथ फाइन-ट्यूनिंग प्रक्रिया शुरू करना है .fit()
तरीका:
निर्दिष्ट हाइपरपैरामीटर का उपयोग करके फाइन-ट्यूनिंग प्रक्रिया में लगभग 30 मिनट लगते हैं।
मॉडल तैनात करें और अनुमान लगाएं
सेजमेकर आपके उपयोग के मामले के आधार पर कई परिनियोजन विकल्प प्रदान करता है। लगातार, वास्तविक समय के समापन बिंदुओं के लिए जो एक समय में एक भविष्यवाणी करते हैं, हम उपयोग करने की सलाह देते हैं सेजमेकर रीयल-टाइम होस्टिंग सेवाएं. यदि आपके पास ऐसे कार्यभार हैं जिनमें ट्रैफ़िक की तेजी के बीच निष्क्रिय अवधि होती है और ठंडी शुरुआत को सहन कर सकते हैं, तो हम इसका उपयोग करने की सलाह देते हैं सर्वर रहित अनुमान. सर्वर रहित एंडपॉइंट स्वचालित रूप से गणना संसाधनों को लॉन्च करते हैं और ट्रैफ़िक के आधार पर उन्हें अंदर और बाहर स्केल करते हैं, जिससे इंस्टेंस प्रकार चुनने या स्केलिंग नीतियों को प्रबंधित करने की आवश्यकता समाप्त हो जाती है। हम प्रदर्शित करते हैं कि हमारे फाइन-ट्यून्ड हगिंग फेस मॉडल को वास्तविक समय अनुमान समापन बिंदु और सर्वर रहित अनुमान समापन बिंदु दोनों पर कैसे तैनात किया जाए।
वास्तविक समय अनुमान समापन बिंदु पर तैनात करें
आप इसका उपयोग करके सेजमेकर के भीतर वास्तविक समय अनुमान होस्टिंग पर एक प्रशिक्षण ऑब्जेक्ट को तैनात कर सकते हैं .deploy()
तरीका। स्वीकृत मापदंडों की पूरी सूची के लिए, देखें गले लगाने वाला चेहरा मॉडल. आरंभ करने के लिए, आइए निम्नलिखित मापदंडों को पार करके मॉडल को एक उदाहरण में तैनात करें: initial_instance_count
, instance_type
, तथा endpoint_name
। निम्नलिखित कोड देखें:
मॉडल को तैनात होने में कुछ मिनट लगते हैं। मॉडल तैनात होने के बाद, हम अनुमान के लिए अदृश्य परीक्षण डेटासेट से अंतिम बिंदु तक नमूना रिकॉर्ड जमा कर सकते हैं।
सर्वर रहित अनुमान समापन बिंदु पर परिनियोजित करें
अपने प्रशिक्षण ऑब्जेक्ट को सर्वर रहित एंडपॉइंट पर तैनात करने के लिए, हमें पहले एक सर्वर रहित कॉन्फ़िगरेशन फ़ाइल निर्दिष्ट करने की आवश्यकता है memory_size_in_mb
और max_concurrency
तर्क:
memory_size_in_mb
आपके सर्वर रहित एंडपॉइंट के कुल रैम आकार को परिभाषित करता है; न्यूनतम रैम का आकार 1024 एमबी (1 जीबी) है और इसे 6144 एमबी (6 जीबी) तक बढ़ाया जा सकता है। आम तौर पर, आपको एक मेमोरी आकार चुनने का लक्ष्य रखना चाहिए जो कम से कम आपके मॉडल आकार जितना बड़ा हो। max_concurrency
एक एकल समापन बिंदु के लिए एक ही समय में (50 समवर्ती आमंत्रणों तक) कितने समवर्ती आमंत्रणों को संसाधित किया जा सकता है, इसके लिए कोटा को परिभाषित करता है।
हमें हगिंग फेस अनुमान छवि यूआरआई भी प्रदान करने की आवश्यकता है, जिसे आप निम्नलिखित कोड का उपयोग करके पुनः प्राप्त कर सकते हैं:
अब जबकि हमारे पास सर्वर रहित कॉन्फ़िगरेशन फ़ाइल है, हम अपने वास्तविक समय अनुमान समापन बिंदु की तरह ही सर्वर रहित समापन बिंदु बना सकते हैं, इसका उपयोग करके .deploy()
तरीका:
समापन बिंदु कुछ ही मिनटों में बन जाना चाहिए.
मॉडल अनुमान निष्पादित करें
पूर्वानुमान लगाने के लिए, हमें जोड़कर वाक्य युग्म बनाना होगा [CLS]
और [SEP]
विशेष टोकन और बाद में इनपुट को मॉडल एंडपॉइंट पर सबमिट करें। वास्तविक समय अनुमान और सर्वर रहित अनुमान का सिंटैक्स समान है:
निम्नलिखित उदाहरणों में, हम देख सकते हैं कि मॉडल सही ढंग से वर्गीकृत करने में सक्षम है कि इनपुट वाक्य जोड़ी में व्याख्यात्मक वाक्य हैं या नहीं।
निम्नलिखित एक वास्तविक समय अनुमान उदाहरण है।
निम्नलिखित एक सर्वर रहित अनुमान उदाहरण है।
मॉडल के प्रदर्शन का मूल्यांकन करें
मॉडल का मूल्यांकन करने के लिए, आइए पूर्ववर्ती कोड का विस्तार करें और सभी 8,000 अनदेखे परीक्षण रिकॉर्ड को वास्तविक समय के समापन बिंदु पर सबमिट करें:
इसके बाद, हम निकाले गए पूर्वानुमानों का उपयोग करके एक वर्गीकरण रिपोर्ट बना सकते हैं:
हमें निम्नलिखित परीक्षण स्कोर मिलते हैं।
हम उसका अवलोकन कर सकते हैं roberta-base
इसका संयुक्त मैक्रो-औसत F1 स्कोर 92% है और यह उन वाक्यों का पता लगाने में थोड़ा बेहतर प्रदर्शन करता है जो पैराफ़्रेज़ हैं। roberta-base
मॉडल अच्छा प्रदर्शन करता है, लेकिन कम से कम एक अन्य मॉडल का उपयोग करके मॉडल प्रदर्शन की गणना करना अच्छा अभ्यास है।
निम्न तालिका तुलना करती है roberta-base
एक अन्य सुव्यवस्थित ट्रांसफार्मर के विरुद्ध उसी परीक्षण सेट पर प्रदर्शन परिणाम कहा जाता है paraphrase-mpnet-base-v2
, एक वाक्य ट्रांसफार्मर विशेष रूप से पैराफ़्रेज़ पहचान कार्य के लिए पूर्व-प्रशिक्षित। दोनों मॉडलों को ml.p3.8xlarge इंस्टेंस पर प्रशिक्षित किया गया था।
परिणाम बताते हैं कि roberta-base
सेजमेकर पर वास्तविक समय अनुमान होस्टिंग का उपयोग करके बहुत समान प्रशिक्षण और अनुमान समय के साथ 1% अधिक एफ1 स्कोर है। हालाँकि, मॉडलों के बीच प्रदर्शन अंतर अपेक्षाकृत मामूली है। roberta-base
अंततः विजेता है क्योंकि इसमें थोड़ा बेहतर प्रदर्शन मेट्रिक्स और लगभग समान प्रशिक्षण और अनुमान समय है।
शुद्धता | वापस बुलाना | एफ 1-स्कोर | प्रशिक्षण समय (बिल योग्य) | अनुमान समय (पूर्ण परीक्षण सेट) | |
रॉबर्टा-बेस | 0.92 | 0.93 | 0.92 | 18 मिनट | 2 मिनट |
पैराफ़्रेज़-एमपीनेट- आधार-v2 |
0.92 | 0.91 | 0.91 | 17 मिनट | 2 मिनट |
क्लीन अप
जब आप मॉडल एंडपॉइंट का उपयोग पूरा कर लें, तो आप भविष्य के शुल्कों से बचने के लिए उन्हें हटा सकते हैं:
निष्कर्ष
इस पोस्ट में, हमने चर्चा की कि सेजमेकर पर हगिंग फेस ट्रांसफार्मर का उपयोग करके तेजी से पैराफ्रेज़ पहचान मॉडल कैसे बनाया जाए। हमने दो पूर्व-प्रशिक्षित ट्रांसफार्मर को ठीक किया, roberta-base
और paraphrase-mpnet-base-v2
, PAWS डेटासेट का उपयोग करके (जिसमें उच्च शाब्दिक ओवरलैप वाले वाक्य जोड़े शामिल हैं)। हमने वास्तविक समय अनुमान बनाम सर्वर रहित अनुमान परिनियोजन के लाभों का प्रदर्शन और चर्चा की, बाद वाला एक नई सुविधा है जो स्पाइकी वर्कलोड को लक्षित करती है और स्केलिंग नीतियों को प्रबंधित करने की आवश्यकता को समाप्त करती है। 8,000 रिकॉर्ड के साथ एक अनदेखे परीक्षण सेट पर, हमने प्रदर्शित किया कि दोनों मॉडलों ने 1% से अधिक एफ90 स्कोर हासिल किया।
इस समाधान पर विस्तार करने के लिए, निम्नलिखित पर विचार करें:
- अपने स्वयं के कस्टम डेटासेट के साथ फ़ाइन-ट्यूनिंग का प्रयास करें। यदि आपके पास पर्याप्त प्रशिक्षण लेबल नहीं हैं, तो आप एक कस्टम परीक्षण डेटासेट पर इस पोस्ट में दिखाए गए मॉडल की तरह एक परिष्कृत मॉडल के प्रदर्शन का मूल्यांकन कर सकते हैं।
- इस सुव्यवस्थित मॉडल को एक डाउनस्ट्रीम एप्लिकेशन में एकीकृत करें जिसके लिए यह जानकारी आवश्यक है कि क्या दो वाक्य (या पाठ के ब्लॉक) एक दूसरे के पैराफ्रेश हैं।
हैप्पी बिल्डिंग!
लेखक के बारे में
बाला कृष्णमूर्ति वह AWS प्रोफेशनल सर्विसेज में एक डेटा साइंटिस्ट हैं, जहां उन्हें ग्राहकों की व्यावसायिक समस्याओं को हल करने के लिए मशीन लर्निंग का उपयोग करने में आनंद आता है। वह प्राकृतिक भाषा प्रसंस्करण उपयोग के मामलों में माहिर हैं और उन्होंने सॉफ्टवेयर, वित्त और स्वास्थ्य सेवा जैसे उद्योगों में ग्राहकों के साथ काम किया है। अपने खाली समय में, उन्हें नया भोजन आज़माना, कॉमेडी और वृत्तचित्र देखना, ऑरेंज थ्योरी पर काम करना और पानी पर बाहर जाना (पैडल-बोर्डिंग, स्नॉर्कलिंग और उम्मीद है कि जल्द ही गोता लगाना) पसंद है।
इवान कुई एडब्ल्यूएस प्रोफेशनल सर्विसेज के साथ डेटा साइंटिस्ट हैं, जहां वे ग्राहकों को एडब्ल्यूएस पर मशीन लर्निंग का उपयोग करके समाधान बनाने और तैनात करने में मदद करते हैं। उन्होंने सॉफ्टवेयर, फाइनेंस, फार्मास्युटिकल और हेल्थकेयर सहित विभिन्न उद्योगों में ग्राहकों के साथ काम किया है। अपने खाली समय में, उन्हें पढ़ना, अपने परिवार के साथ समय बिताना और अपने स्टॉक पोर्टफोलियो को अधिकतम करना पसंद है।
- कॉइनस्मार्ट। यूरोप का सर्वश्रेष्ठ बिटकॉइन और क्रिप्टो एक्सचेंज।
- प्लेटोब्लॉकचैन। Web3 मेटावर्स इंटेलिजेंस। ज्ञान प्रवर्धित। नि: शुल्क प्रवेश।
- क्रिप्टोहॉक। Altcoin रडार। मुफ्त परीक्षण।
- स्रोत: https://aws.amazon.com/blogs/machine-learning/identify-paraphrased-text-with-hugging-face-on-amazon-sagemaker/
- '
- "
- 000
- 10
- 100
- 2019
- 2022
- 84
- About
- पहुँच
- लेखा
- हासिल
- के पार
- सब
- पहले ही
- वीरांगना
- की घोषणा
- अन्य
- आवेदन
- लागू
- लगभग
- तर्क
- उपलब्ध
- एडब्ल्यूएस
- जा रहा है
- लाभ
- परिवर्तन
- सीमा
- निर्माण
- व्यापार
- कॉल
- सक्षम
- कारों
- मामलों
- प्रभार
- चुनें
- City
- कक्षा
- वर्गीकरण
- कोड
- स्तंभ
- संयुक्त
- समुदाय
- पूरी तरह से
- गणना करना
- आत्मविश्वास
- कंटेनरों
- शामिल हैं
- सका
- बनाना
- बनाया
- रिवाज
- ग्राहक
- ग्राहक
- तिथि
- आँकड़े वाला वैज्ञानिक
- दिखाना
- साबित
- निर्भर करता है
- तैनात
- तैनात
- तैनाती
- विवरण
- खोज
- विकास
- विभिन्न
- वितरण
- वृत्तचित्र
- दस्तावेजों
- डाउनलोड
- ड्राइव
- कुशल
- endpoint
- अंग्रेज़ी
- वातावरण
- स्थापित करना
- मूल्यांकन करें
- उदाहरण
- एक्ज़िबिट
- विस्तार
- चेहरा
- परिवार
- Feature
- वित्त
- प्रथम
- उड़ान
- फोकस
- का पालन करें
- निम्नलिखित
- भोजन
- मुक्त
- पूर्ण
- समारोह
- कार्यक्षमता
- भविष्य
- सामान्य उद्देश्य
- आम तौर पर
- उत्पन्न
- GitHub
- अच्छा
- अधिक से अधिक
- स्वास्थ्य सेवा
- ऊंचाई
- मदद करता है
- यहाँ उत्पन्न करें
- हाई
- उच्चतर
- होस्टिंग
- कैसे
- How To
- HTTPS
- पहचान
- पहचान करना
- पहचान
- पहचान
- की छवि
- शामिल
- सहित
- उद्योगों
- करें-
- निवेश
- स्थापित
- रुचि
- मुद्दा
- IT
- नौकरियां
- लेबल
- भाषा
- बड़ा
- लांच
- सीख रहा हूँ
- पुस्तकालय
- सूची
- भार
- मशीन
- यंत्र अधिगम
- बनाता है
- प्रबंधन
- याद
- मेट्रिक्स
- ML
- आदर्श
- मॉडल
- अधिक
- अधिकांश
- विभिन्न
- प्राकृतिक
- नकारात्मक
- न्यूयॉर्क
- न्यू यॉर्क शहर
- नोटबुक
- ऑफर
- अनुकूलित
- ऑप्शंस
- आदेश
- अन्य
- अपना
- काग़ज़
- पेरिस
- पार्टनर
- पासिंग
- पैच
- पीडीएफ
- प्रदर्शन
- अवधि
- फार्मास्युटिकल
- बिन्दु
- नीतियाँ
- संविभाग
- सकारात्मक
- अभ्यास
- भविष्यवाणी
- भविष्यवाणियों
- समस्याओं
- प्रक्रिया
- प्रसंस्करण
- पेशेवर
- प्रदान करना
- प्रश्न
- Quora
- रैम
- पंक्ति
- पढ़ना
- वास्तविक समय
- की सिफारिश
- अभिलेख
- रिहा
- रिपोर्ट
- कोष
- की आवश्यकता होती है
- संसाधन
- उपयुक्त संसाधन चुनें
- परिणाम
- वापसी
- रन
- दौड़ना
- स्केल
- स्केलिंग
- वैज्ञानिक
- सुरक्षा
- चयनित
- serverless
- सेवाएँ
- सेट
- की स्थापना
- समान
- सरल
- आकार
- छोटा
- सॉफ्टवेयर
- ठोस
- समाधान
- समाधान ढूंढे
- हल
- विशेष
- माहिर
- विशेष रूप से
- खर्च
- स्पिन
- विभाजित
- प्रारंभ
- शुरू
- शुरू होता है
- स्टॉक
- भंडारण
- की दुकान
- इसके बाद
- आपूर्ति
- स्वीडन
- प्रणाली
- लक्ष्य
- कार्य
- तकनीक
- बताता है
- परीक्षण
- यहाँ
- पहर
- tokenization
- tokenized
- टोकन
- ऊपर का
- मशाल
- यातायात
- प्रशिक्षण
- अनुवाद करें
- us
- उपयोग
- सत्यापन
- मूल्य
- विविधता
- देखें
- पानी
- क्या
- या
- विकिपीडिया
- अंदर
- बिना
- शब्द
- काम किया
- काम कर रहे
- व्यायाम करना