वीडियो गेम से लेकर दूरसंचार तक के उद्योगों में फैले आधुनिक जीवन में ऑनलाइन बातचीत सर्वव्यापी है। इससे ऑनलाइन वार्तालाप डेटा की मात्रा में घातीय वृद्धि हुई है, जिससे चैटबॉट और प्राकृतिक भाषा पीढ़ी (एनएलजी) मॉडल जैसे अत्याधुनिक प्राकृतिक भाषा प्रसंस्करण (एनएलपी) सिस्टम के विकास में मदद मिली है। समय के साथ, पाठ विश्लेषण के लिए विभिन्न एनएलपी तकनीकें भी विकसित हुई हैं। यह पूरी तरह से प्रबंधित सेवा की आवश्यकता की आवश्यकता है जिसे व्यापक मशीन लर्निंग (एमएल) विशेषज्ञता की आवश्यकता के बिना एपीआई कॉल का उपयोग करके अनुप्रयोगों में एकीकृत किया जा सकता है। AWS पूर्व-प्रशिक्षित AWS AI सेवाएं प्रदान करता है जैसे Amazon Comprehend, जो एनएलपी उपयोग के मामलों को प्रभावी ढंग से संभाल सकता है जिसमें वर्गीकरण, पाठ सारांश, इकाई पहचान, और पाठ से अंतर्दृष्टि एकत्र करने के लिए और भी बहुत कुछ शामिल है।
इसके अतिरिक्त, ऑनलाइन बातचीत ने भाषा के गैर-पारंपरिक उपयोग की व्यापक प्रसार की घटना को जन्म दिया है। पारंपरिक एनएलपी तकनीकें अक्सर इस पाठ डेटा पर खराब प्रदर्शन करती हैं, क्योंकि लगातार विकसित और डोमेन-विशिष्ट शब्दसंग्रह जो विभिन्न प्लेटफार्मों के भीतर मौजूद हैं, साथ ही साथ उचित अंग्रेजी से शब्दों के महत्वपूर्ण शाब्दिक विचलन, या तो दुर्घटना से या जानबूझकर प्रतिकूल हमले के रूप में .
इस पोस्ट में, हम AWS पर उपलब्ध टूल और सेवाओं के साथ ऑनलाइन बातचीत के टेक्स्ट वर्गीकरण के लिए कई ML दृष्टिकोणों का वर्णन करते हैं।
.. पूर्वापेक्षाएँ
इस उपयोग के मामले में गहराई से गोता लगाने से पहले, कृपया निम्नलिखित पूर्वापेक्षाएँ पूरी करें:
- सेट अप ए AWS खाता और एक आईएएम उपयोगकर्ता बनाएं.
- सेट अप करें AWS सीएलआई और AWS एसडीके.
- (वैकल्पिक) अपना सेट अप करें Cloud9 IDE वातावरण.
डेटासेट
इस पोस्ट के लिए, हम का उपयोग करें विषाक्तता वर्गीकरण डेटासेट में आरा अनपेक्षित पूर्वाग्रह, ऑनलाइन बातचीत में विषाक्तता के वर्गीकरण की विशिष्ट समस्या के लिए एक बेंचमार्क। डेटासेट विषाक्तता लेबल के साथ-साथ कई उपसमूह विशेषताएँ प्रदान करता है जैसे कि अश्लील, पहचान पर हमला, अपमान, धमकी और यौन रूप से स्पष्ट। लेबल को भिन्नात्मक मानों के रूप में प्रदान किया जाता है, जो मानव व्याख्याकारों के अनुपात का प्रतिनिधित्व करते हैं, जो मानते हैं कि विशेषता किसी दिए गए पाठ पर लागू होती है, जो शायद ही कभी एकमत होते हैं। बाइनरी लेबल (उदाहरण के लिए, विषाक्त या गैर-विषैले) उत्पन्न करने के लिए, 0.5 की एक सीमा भिन्नात्मक मूल्यों पर लागू होती है, और थ्रेशोल्ड से अधिक मूल्यों वाली टिप्पणियों को उस लेबल के लिए सकारात्मक वर्ग के रूप में माना जाता है।
सबवर्ड एम्बेडिंग और आरएनएन
हमारे पहले मॉडलिंग दृष्टिकोण के लिए, हम टेक्स्ट वर्गीकरण मॉडल को प्रशिक्षित करने के लिए सबवर्ड एम्बेडिंग और आवर्तक तंत्रिका नेटवर्क (आरएनएन) के संयोजन का उपयोग करते हैं। सबवर्ड एम्बेडिंग द्वारा पेश किया गया था बोजानोव्स्की एट अल। 2017 में पिछले शब्द-स्तरीय एम्बेडिंग विधियों में सुधार के रूप में। पारंपरिक Word2Vec स्किप-ग्राम मॉडल को एक लक्षित शब्द के स्थिर वेक्टर प्रतिनिधित्व को सीखने के लिए प्रशिक्षित किया जाता है जो उस शब्द के संदर्भ की बेहतर भविष्यवाणी करता है। दूसरी ओर, सबवर्ड मॉडल, प्रत्येक लक्ष्य शब्द को वर्ण n-ग्राम के एक बैग के रूप में दर्शाते हैं जो शब्द बनाते हैं, जहां एक n-ग्राम n लगातार वर्णों के एक सेट से बना होता है। यह विधि एम्बेडिंग मॉडल को कॉर्पस में संबंधित शब्दों के अंतर्निहित आकारिकी के साथ-साथ उपन्यास, आउट-ऑफ-वोकैबुलरी (ओओवी) शब्दों के लिए एम्बेडिंग की गणना का बेहतर प्रतिनिधित्व करने की अनुमति देती है। यह ऑनलाइन बातचीत के संदर्भ में विशेष रूप से महत्वपूर्ण है, एक समस्या स्थान जिसमें उपयोगकर्ता अक्सर शब्दों की गलत वर्तनी करते हैं (कभी-कभी जानबूझकर पता लगाने से बचने के लिए) और एक अद्वितीय, लगातार विकसित होने वाली शब्दावली का भी उपयोग करते हैं जिसे सामान्य प्रशिक्षण कॉर्पस द्वारा कब्जा नहीं किया जा सकता है।
अमेज़न SageMaker बिल्ट-इन के साथ डोमेन-विशिष्ट टेक्स्ट डेटा के अपने कॉर्पस पर एक असुरक्षित सबवर्ड एम्बेडिंग मॉडल को प्रशिक्षित और अनुकूलित करना आसान बनाता है BlazingText एल्गोरिथ्म. हम ऑनलाइन टेक्स्ट के बड़े डेटासेट पर प्रशिक्षित मौजूदा सामान्य-उद्देश्य मॉडल भी डाउनलोड कर सकते हैं, जैसे कि निम्नलिखित फास्टटेक्स्ट से सीधे उपलब्ध अंग्रेजी भाषा के मॉडल. अपने सेजमेकर नोटबुक इंस्टेंस से, एक पूर्व-प्रशिक्षित फास्टटेक्स्ट मॉडल डाउनलोड करने के लिए बस निम्नलिखित चलाएँ:
चाहे आपने ब्लेज़िंगटेक्स्ट के साथ अपने स्वयं के एम्बेडिंग को प्रशिक्षित किया हो या एक पूर्व-प्रशिक्षित मॉडल डाउनलोड किया हो, परिणाम एक ज़िप्ड मॉडल बाइनरी है जिसका उपयोग आप किसी दिए गए लक्ष्य शब्द को उसके घटक उपशब्दों के आधार पर वेक्टर के रूप में एम्बेड करने के लिए जेन्सिम लाइब्रेरी के साथ कर सकते हैं:
पाठ के किसी दिए गए खंड को प्रीप्रोसेस करने के बाद, हम इस दृष्टिकोण का उपयोग प्रत्येक घटक शब्दों के लिए एक वेक्टर प्रतिनिधित्व उत्पन्न करने के लिए कर सकते हैं (जैसा कि रिक्त स्थान द्वारा अलग किया गया है)। फिर हम सेजमेकर और एक गहन शिक्षण ढांचे जैसे कि PyTorch का उपयोग बाइनरी या मल्टीलेबल वर्गीकरण उद्देश्य के साथ एक अनुकूलित RNN को प्रशिक्षित करने के लिए करते हैं ताकि यह अनुमान लगाया जा सके कि पाठ विषाक्त है या नहीं और विशिष्ट उप-प्रकार की विषाक्तता लेबल प्रशिक्षण उदाहरणों के आधार पर है।
अपना पूर्व-संसाधित पाठ पर अपलोड करने के लिए अमेज़न सरल भंडारण सेवा (अमेज़ॅन S3), निम्न कोड का उपयोग करें:
सेजमेकर के साथ स्केलेबल, मल्टी-जीपीयू मॉडल प्रशिक्षण आरंभ करने के लिए, निम्नलिखित कोड दर्ज करें:
अंदर , हम एक PyTorch डेटासेट को परिभाषित करते हैं जिसका उपयोग किया जाता है train.py
मॉडल के प्रशिक्षण और मूल्यांकन के लिए टेक्स्ट डेटा तैयार करने के लिए:
ध्यान दें कि यह कोड अनुमान लगाता है कि vectors.zip
आपके FastText या BlazingText एम्बेडिंग वाली फ़ाइल को इसमें संग्रहीत किया जाएगा .
इसके अतिरिक्त, आप प्रासंगिक शब्द-स्तरीय कार्यों में उपयोग के लिए फ्लाई पर एम्बेडिंग वैक्टर की गणना करने के लिए सेजमेकर एंडपॉइंट्स को लाइव करने के लिए आसानी से प्री-प्रशिक्षित फास्टटेक्स्ट मॉडल तैनात कर सकते हैं। निम्नलिखित देखें गिटहब उदाहरण अधिक जानकारी के लिए.
हगिंग फेस वाले ट्रांसफॉर्मर
हमारे दूसरे मॉडलिंग दृष्टिकोण के लिए, हम पेपर में पेश किए गए ट्रांसफॉर्मर के उपयोग के लिए संक्रमण करते हैं ध्यान आप सभी की जरूरत है. ट्रांसफॉर्मर गहन शिक्षण मॉडल हैं जिन्हें जानबूझकर आरएनएन के नुकसान से बचने के लिए डिज़ाइन किया गया है ताकि इनपुट और आउटपुट के बीच वैश्विक निर्भरता को आकर्षित करने के लिए आत्म-ध्यान तंत्र पर भरोसा किया जा सके। ट्रांसफॉर्मर मॉडल आर्किटेक्चर काफी बेहतर समानांतरता की अनुमति देता है और अपेक्षाकृत कम प्रशिक्षण समय में उच्च प्रदर्शन प्राप्त कर सकता है।
ट्रांसफॉर्मर की सफलता पर बना बीईआरटी, कागज में पेश किया गया BERT: लैंग्वेज अंडरस्टैंडिंग के लिए डीप बिडायरेक्शनल ट्रांसफॉर्मर्स की प्री-ट्रेनिंग, भाषा प्रतिनिधित्व के लिए द्विदिश पूर्व-प्रशिक्षण जोड़ा गया। क्लोज़ कार्य से प्रेरित होकर, BERT नकाबपोश भाषा मॉडलिंग (MLM) के साथ पूर्व-प्रशिक्षित है, जिसमें मॉडल बेतरतीब ढंग से नकाबपोश टोकन के लिए मूल शब्दों को पुनर्प्राप्त करना सीखता है। बीईआरटी मॉडल को अगले वाक्य भविष्यवाणी (एनएसपी) कार्य पर भी भविष्यवाणी की जाती है ताकि यह अनुमान लगाया जा सके कि दो वाक्य सही पढ़ने के क्रम में हैं या नहीं। 2018 में इसके आगमन के बाद से, BERT और इसकी विविधताओं का व्यापक रूप से पाठ वर्गीकरण कार्यों में उपयोग किया गया है।
हमारा समाधान BERT के एक प्रकार का उपयोग करता है जिसे रोबर्टा के नाम से जाना जाता है, जिसे पेपर में पेश किया गया था RoBERTa: एक मजबूत अनुकूलित BERT Pretraining दृष्टिकोण. रोबर्टा अनुकूलित मॉडल प्रशिक्षण द्वारा विभिन्न प्रकार के प्राकृतिक भाषा कार्यों पर बीईआरटी के प्रदर्शन को और बेहतर बनाता है, जिसमें अनुकूलित हाइपरपैरामीटर का उपयोग करके, गतिशील यादृच्छिक मास्किंग, एनएसपी कार्य को हटाने, और बहुत कुछ शामिल है।
हमारे रॉबर्टा-आधारित मॉडल का उपयोग करते हैं हगिंग फेस ट्रांसफॉर्मर पुस्तकालय, जो एक लोकप्रिय ओपन-सोर्स पायथन ढांचा है जो विभिन्न प्रकार के एनएलपी कार्यों के लिए सभी प्रकार के अत्याधुनिक ट्रांसफार्मर मॉडल के उच्च गुणवत्ता वाले कार्यान्वयन प्रदान करता है। हगिंग फेस ने AWS के साथ साझेदारी की है सेजमेकर पर आपको ट्रांसफॉर्मर मॉडल को आसानी से प्रशिक्षित और तैनात करने में सक्षम बनाने के लिए। यह कार्यक्षमता के माध्यम से उपलब्ध है हगिंग फेस एडब्ल्यूएस डीप लर्निंग कंटेनर इमेज, जिसमें ट्रांसफॉर्मर, टोकनाइज़र और डेटासेट लाइब्रेरी शामिल हैं, और मॉडल प्रशिक्षण और अनुमान के लिए सेजमेकर के साथ अनुकूलित एकीकरण।
हमारे कार्यान्वयन में, हम रोबर्टा आर्किटेक्चर बैकबोन को हगिंग फेस ट्रांसफॉर्मर्स फ्रेमवर्क से प्राप्त करते हैं और अपने स्वयं के टेक्स्ट वर्गीकरण मॉडल को प्रशिक्षित और तैनात करने के लिए सेजमेकर का उपयोग करते हैं, जिसे हम रोबर्टॉक्स कहते हैं। RoBERTox बाइट पेयर एन्कोडिंग (BPE) का उपयोग करता है, जिसे में पेश किया गया है सबवर्ड इकाइयों के साथ दुर्लभ शब्दों का तंत्रिका मशीन अनुवाद, इनपुट टेक्स्ट को सबवर्ड अभ्यावेदन में टोकननाइज़ करने के लिए। फिर हम आरा डेटा या किसी बड़े डोमेन-विशिष्ट कॉर्पस (जैसे किसी विशिष्ट गेम से चैट लॉग) पर अपने मॉडल और टोकनाइज़र को प्रशिक्षित कर सकते हैं और अनुकूलित टेक्स्ट वर्गीकरण के लिए उनका उपयोग कर सकते हैं। हम अपने कस्टम वर्गीकरण मॉडल वर्ग को निम्नलिखित कोड में परिभाषित करते हैं:
प्रशिक्षण से पहले, हम हगिंग फेस की डेटासेट लाइब्रेरी का उपयोग करके अपना टेक्स्ट डेटा और लेबल तैयार करते हैं और परिणाम को Amazon S3 पर अपलोड करते हैं:
हम RNN के समान मॉडल का प्रशिक्षण शुरू करते हैं:
अंत में, निम्नलिखित पायथन कोड स्निपेट JSON अनुरोध के लिए रीयल-टाइम टेक्स्ट वर्गीकरण के लिए लाइव सेजमेकर एंडपॉइंट के माध्यम से RoBERTox की सेवा की प्रक्रिया को दिखाता है:
मॉडल प्रदर्शन का मूल्यांकन: आरा अनपेक्षित पूर्वाग्रह डेटासेट
निम्न तालिका में टॉक्सिसिटी डिटेक्शन कागल प्रतियोगिता में आरा अनपेक्षित पूर्वाग्रह से डेटा पर प्रशिक्षित और मूल्यांकन किए गए मॉडल के लिए प्रदर्शन मेट्रिक्स हैं। हमने तीन अलग-अलग लेकिन परस्पर संबंधित कार्यों के लिए मॉडलों को प्रशिक्षित किया:
- बाइनरी केस - मॉडल को भविष्यवाणी करने के लिए पूर्ण प्रशिक्षण डेटासेट पर प्रशिक्षित किया गया था
toxicity
केवल लेबल - महीन दाने वाला मामला - प्रशिक्षण डेटा का सबसेट जिसके लिए
toxicity>=0.5
अन्य विषाक्तता उप-प्रकार के लेबल की भविष्यवाणी करने के लिए इस्तेमाल किया गया था (obscene
,threat
,insult
,identity_attack
,sexual_explicit
) - मल्टीटास्क केस - एक साथ सभी छह लेबलों की भविष्यवाणी करने के लिए पूर्ण प्रशिक्षण डेटासेट का उपयोग किया गया था
हमने इन तीन कार्यों में से प्रत्येक के लिए RNN और RoBERTa मॉडल को आरा-प्रदान किए गए भिन्नात्मक लेबल का उपयोग करके प्रशिक्षित किया, जो उन व्याख्याकारों के अनुपात के अनुरूप हैं, जिन्होंने सोचा था कि लेबल पाठ के लिए उपयुक्त था, साथ ही नेटवर्क में वर्ग भार के साथ संयुक्त बाइनरी लेबल के साथ। लॉस फंकशन। बाइनरी लेबलिंग योजना में, प्रत्येक उपलब्ध लेबल के लिए अनुपात 0.5 पर थ्रेसहोल्ड किया गया था (1 यदि लेबल> = 0.5, 0 अन्यथा), और मॉडल हानि कार्यों को प्रशिक्षण डेटासेट में प्रत्येक बाइनरी लेबल के सापेक्ष अनुपात के आधार पर भारित किया गया था। सभी मामलों में, हमने पाया कि भिन्नात्मक लेबल का सीधे उपयोग करने से सबसे अच्छा प्रदर्शन हुआ, जो एनोटेटर्स के बीच समझौते की डिग्री में निहित जानकारी के अतिरिक्त मूल्य को दर्शाता है।
हम दो मॉडल मेट्रिक्स प्रदर्शित करते हैं: औसत परिशुद्धता (एपी), जो प्रत्येक वर्गीकरण सीमा पर प्राप्त सटीक मूल्यों के भारित माध्य की गणना करके और रिसीवर ऑपरेटिंग विशेषता वक्र (एयूसी) के तहत क्षेत्र की गणना करके सटीक-रिकॉल वक्र का सारांश प्रदान करता है। , जो वास्तविक सकारात्मक दर और झूठी सकारात्मक दर के संबंध में वर्गीकरण थ्रेसहोल्ड में मॉडल प्रदर्शन को एकत्रित करता है। ध्यान दें कि परीक्षण सेट में दिए गए टेक्स्ट इंस्टेंस के लिए सही वर्ग इस बात से मेल खाता है कि क्या सही अनुपात 0.5 से अधिक या बराबर है (1 यदि लेबल> = 0.5, 0 अन्यथा)।
. | सबवर्ड एंबेडिंग + आरएनएन | RoberTa | ||
. | भिन्नात्मक लेबल | बाइनरी लेबल + क्लास वेटिंग | भिन्नात्मक लेबल | बाइनरी लेबल + क्लास वेटिंग |
द्विचर | एपी = 0.746, एयूसी = 0.966 | एपी = 0.730, एयूसी = 0.963 | एपी = 0.758, एयूसी = 0.966 | एपी = 0.747, एयूसी = 0.963 |
सुक्ष्म | एपी = 0.906, एयूसी = 0.909 | एपी = 0.850, एयूसी = 0.851 | एपी = 0.913, एयूसी = 0.913 | एपी = 0.911, एयूसी = 0.912 |
Multitask | एपी = 0.721, एयूसी = 0.972 | एपी = 0.535, एयूसी = 0.907 | एपी = 0.740, एयूसी = 0.972 | एपी = 0.711, एयूसी = 0.961 |
निष्कर्ष
इस पोस्ट में, हमने AWS ML सेवाओं का उपयोग करके ऑनलाइन बातचीत के लिए दो टेक्स्ट वर्गीकरण दृष्टिकोण प्रस्तुत किए। आप इन समाधानों को ऑनलाइन संचार प्लेटफॉर्म पर सामान्यीकृत कर सकते हैं, गेमिंग जैसे उद्योगों के साथ विशेष रूप से हानिकारक सामग्री का पता लगाने की बेहतर क्षमता से लाभान्वित होने की संभावना है। भविष्य की पोस्टों में, हम आपके एडब्ल्यूएस खाते में मॉडल के निर्बाध परिनियोजन के लिए एंड-टू-एंड आर्किटेक्चर पर आगे चर्चा करने की योजना बना रहे हैं।
यदि आप अपने उत्पादों और प्रक्रियाओं में एमएल के उपयोग को तेज करने में मदद करना चाहते हैं, तो कृपया संपर्क करें अमेज़न एमएल सॉल्यूशंस लैब.
लेखक के बारे में
रयान ब्रांड अमेज़न मशीन लर्निंग सॉल्यूशंस लैब में डेटा साइंटिस्ट हैं। उन्हें स्वास्थ्य देखभाल और जीवन विज्ञान में समस्याओं के लिए मशीन लर्निंग को लागू करने का विशिष्ट अनुभव है, और अपने खाली समय में उन्हें इतिहास और विज्ञान कथा पढ़ने में आनंद आता है।
सौरव भाबेशो Amazon ML Solutions Lab में डेटा साइंटिस्ट हैं। वह विभिन्न उद्योगों में एडब्ल्यूएस ग्राहकों के लिए एआई/एमएल समाधान विकसित करता है। उनकी विशेषता नेचुरल लैंग्वेज प्रोसेसिंग (एनएलपी) है और गहरी शिक्षा के बारे में भावुक हैं। काम के बाहर उन्हें किताबें पढ़ना और यात्रा करना पसंद है।
लिउतोंग झोउ Amazon ML Solutions Lab में अनुप्रयुक्त वैज्ञानिक हैं। वह विभिन्न उद्योगों में एडब्ल्यूएस ग्राहकों के लिए बीस्पोक एआई/एमएल समाधान तैयार करता है। वह नेचुरल लैंग्वेज प्रोसेसिंग (एनएलपी) में माहिर हैं और मल्टी-मोडल डीप लर्निंग के बारे में भावुक हैं। वह एक गीतकार हैं और काम के बाहर ओपेरा गायन का आनंद लेते हैं।
सिया घोलमी अमेज़ॅन एमएल सॉल्यूशंस लैब में एक वरिष्ठ डेटा वैज्ञानिक हैं, जहां वे विभिन्न उद्योगों में ग्राहकों के लिए एआई/एमएल समाधान तैयार करते हैं। उन्हें नेचुरल लैंग्वेज प्रोसेसिंग (एनएलपी) और डीप लर्निंग का शौक है। काम के अलावा, सिया को प्रकृति में समय बिताना और टेनिस खेलना पसंद है।
डैनियल होरोविट्ज़ एप्लाइड एआई साइंस मैनेजर है। वह ग्राहकों की समस्याओं को हल करने और एमएल के साथ क्लाउड अपनाने को बढ़ावा देने के लिए काम कर रहे अमेज़ॅन एमएल सॉल्यूशंस लैब में वैज्ञानिकों की एक टीम का नेतृत्व करते हैं।
- कॉइनस्मार्ट। यूरोप का सर्वश्रेष्ठ बिटकॉइन और क्रिप्टो एक्सचेंज।
- प्लेटोब्लॉकचैन। Web3 मेटावर्स इंटेलिजेंस। ज्ञान प्रवर्धित। नि: शुल्क प्रवेश।
- क्रिप्टोहॉक। Altcoin रडार। मुफ्त परीक्षण।
- स्रोत: https://aws.amazon.com/blogs/machine-learning/text-classification-for-online-conversations-with-machine-learning-on-aws/
- '
- "
- 10
- 100
- 7
- a
- क्षमता
- About
- तेज
- लेखा
- पाना
- हासिल
- के पार
- जोड़ा
- दत्तक ग्रहण
- समझौता
- AI
- ऐ सेवा
- सब
- की अनुमति देता है
- वीरांगना
- राशि
- विश्लेषण
- एपीआई
- अनुप्रयोगों
- लागू
- लागू करें
- लागू
- दृष्टिकोण
- दृष्टिकोण
- उपयुक्त
- स्थापत्य
- क्षेत्र
- विशेषताओं
- उपलब्ध
- औसत
- एडब्ल्यूएस
- बैग
- बेंचमार्क
- लाभ
- BEST
- बेहतर
- के बीच
- बड़ा
- पुस्तकें
- बनाता है
- में निर्मित
- कॉल
- मामला
- मामलों
- अक्षर
- कक्षा
- वर्गीकरण
- बादल
- कोड
- संयोजन
- संयुक्त
- टिप्पणियाँ
- संचार
- प्रतियोगिता
- पूरा
- प्रकृतिस्थ
- गणना
- गणना करना
- कंप्यूटिंग
- लगातार
- निरंतर
- संपर्क करें
- कंटेनर
- शामिल हैं
- सामग्री
- कन्वर्सेशन (Conversation)
- बातचीत
- बनाना
- वक्र
- रिवाज
- ग्राहक
- ग्राहक
- तिथि
- आँकड़े वाला वैज्ञानिक
- गहरा
- तैनात
- तैनाती
- वर्णन
- बनाया गया
- विवरण
- खोज
- निर्धारित करना
- विकास
- विभिन्न
- आयाम
- सीधे
- चर्चा करना
- डिस्प्ले
- डाउनलोड
- ड्राइव
- दौरान
- गतिशील
- से प्रत्येक
- आसानी
- प्रभावी रूप से
- सक्षम
- शुरू से अंत तक
- endpoint
- अंग्रेज़ी
- दर्ज
- सत्ता
- मूल्यांकन
- उद्विकासी
- उदाहरण
- उदाहरण
- मौजूदा
- अनुभव
- विशेषज्ञता
- व्यापक
- चेहरा
- फैशन
- कल्पना
- प्रथम
- निम्नलिखित
- प्रपत्र
- आगे
- पाया
- आंशिक
- ढांचा
- मुक्त
- से
- पूर्ण
- समारोह
- कार्यक्षमता
- कार्यों
- आगे
- भविष्य
- खेल
- Games
- जुआ
- सामान्य जानकारी
- सामान्य उद्देश्य
- उत्पन्न
- पीढ़ी
- वैश्विक
- अधिक से अधिक
- विकास
- संभालना
- सिर
- स्वास्थ्य सेवा
- मदद
- मदद की
- हाई
- उच्च गुणवत्ता
- इतिहास
- HTTPS
- मानव
- पहचान
- कार्यान्वयन
- महत्वपूर्ण
- उन्नत
- सुधार
- शामिल
- सहित
- उद्योगों
- करें-
- निहित
- निवेश
- अंतर्दृष्टि
- प्रेरित
- उदाहरण
- अपमान
- एकीकृत
- एकीकरण
- IT
- आरा
- काम
- Instagram पर
- जानने वाला
- प्रयोगशाला
- लेबल
- लेबलिंग
- लेबल
- भाषा
- बड़ा
- बड़ा
- परत
- बिक्रीसूत्र
- जानें
- सीख रहा हूँ
- नेतृत्व
- पुस्तकालय
- जीवन विज्ञान
- संभावित
- जीना
- भार
- मशीन
- यंत्र अधिगम
- बनाना
- बनाता है
- कामयाब
- प्रबंधक
- मुखौटा
- मास्क
- मैच
- मैट्रिक्स
- तंत्र
- याद
- तरीकों
- मेट्रिक्स
- हो सकता है
- ML
- आदर्श
- मॉडल
- अधिक
- विभिन्न
- प्राकृतिक
- प्रकृति
- नेटवर्क
- नेटवर्क
- अगला
- नोटबुक
- संख्या
- ऑफर
- ऑनलाइन
- परिचालन
- ऑप्टिमाइज़ करें
- अनुकूलित
- आदेश
- मूल
- अन्य
- अन्यथा
- अपना
- काग़ज़
- विशेष रूप से
- भागीदारी
- आवेशपूर्ण
- पीडीएफ
- प्रदर्शन
- टुकड़ा
- प्लेटफार्म
- खेल
- कृप्या अ
- लोकप्रिय
- सकारात्मक
- पोस्ट
- भविष्यवाणी करना
- भविष्यवाणी
- तैयार करना
- पिछला
- मुसीबत
- समस्याओं
- प्रक्रिया
- प्रक्रियाओं
- प्रसंस्करण
- उत्पाद
- प्रक्षेपण
- बशर्ते
- प्रदान करता है
- पढ़ना
- वास्तविक समय
- की वसूली
- प्रासंगिक
- हटाने
- प्रतिनिधित्व
- प्रतिनिधित्व
- का प्रतिनिधित्व
- का अनुरोध
- वापसी
- रिटर्न
- भूमिका
- रन
- स्केलेबल
- योजना
- विज्ञान
- विज्ञान
- वैज्ञानिक
- वैज्ञानिकों
- निर्बाध
- खंड
- सेवा
- सेवाएँ
- सेवारत
- सेट
- कई
- कम
- महत्वपूर्ण
- समान
- सरल
- के बाद से
- छह
- आकार
- समाधान
- समाधान ढूंढे
- हल
- अंतरिक्ष
- रिक्त स्थान
- माहिर
- विशेषता
- विशिष्ट
- खर्च
- राज्य के-the-कला
- राज्य
- भंडारण
- सफलता
- सिस्टम
- लक्ष्य
- कार्य
- टीम
- तकनीक
- दूरसंचार
- परीक्षण
- RSI
- तीन
- द्वार
- यहाँ
- पहर
- बार
- टोकन
- उपकरण
- मशाल
- परंपरागत
- रेलगाड़ी
- प्रशिक्षण
- संक्रमण
- अनुवाद करें
- यात्रा का
- के अंतर्गत
- अद्वितीय
- उपयोग
- उपयोगकर्ताओं
- सत्यापन
- मूल्य
- विविधता
- विभिन्न
- वीडियो
- वीडियो गेम
- या
- कौन
- अंदर
- बिना
- शब्द
- काम
- काम कर रहे
- आपका