मंटियम AI अनुप्रयोगों के निर्माण और उन्हें बड़े पैमाने पर प्रबंधित करने के लिए एक वैश्विक क्लाउड प्लेटफ़ॉर्म प्रदाता है। मंटियम का एंड-टू-एंड डेवलपमेंट प्लेटफॉर्म सभी आकारों के उद्यमों और व्यवसायों को एआई एप्लिकेशन और ऑटोमेशन बनाने में सक्षम बनाता है जो परंपरागत रूप से संभव है। मेंटियम के साथ, तकनीकी और गैर-तकनीकी टीमें कम-कोड दृष्टिकोण के साथ एआई अनुप्रयोगों का प्रोटोटाइप, विकास, परीक्षण और तैनाती कर सकती हैं। स्वचालित लॉगिंग, निगरानी और सुरक्षा सुविधाओं के माध्यम से, मंटियम सॉफ्टवेयर और DevOps इंजीनियरों को पहिया को फिर से बनाने में अपना समय बिताने से भी मुक्त करता है। उच्च स्तर पर, मंटियम वितरित करता है:
- अत्याधुनिक एआई - एक साधारण यूआई या एपीआई के साथ ओपन-सोर्स और निजी बड़े भाषा मॉडल के व्यापक चयन के साथ प्रयोग और विकास करें।
- एआई प्रक्रिया स्वचालन - एकीकरण की बढ़ती लाइब्रेरी और मेंटियम के ग्राफिकल एआई बिल्डर के साथ आसानी से एआई-संचालित एप्लिकेशन बनाएं।
- तेजी से तैनाती - एक-क्लिक परिनियोजन के साथ उत्पादन समयरेखा को महीनों से हफ्तों या दिनों तक छोटा करें। यह फीचर एआई एप्लिकेशन को एक क्लिक के साथ साझा करने योग्य वेब ऐप में बदल देता है।
- सुरक्षा और विनियमन - शासन नीतियों के साथ सुरक्षा और अनुपालन सुनिश्चित करें और मानव-में-लूप प्रक्रियाओं के लिए समर्थन करें।
मैंटियम एआई बिल्डर के साथ, आप परिष्कृत वर्कफ़्लो विकसित कर सकते हैं जो बाहरी एपीआई, लॉजिक ऑपरेशंस और एआई मॉडल को एकीकृत करते हैं। निम्नलिखित स्क्रीनशॉट मेंटियम एआई ऐप का एक उदाहरण दिखाता है, जो एक ट्विलियो इनपुट, गवर्नेंस पॉलिसी, एआई ब्लॉक (जो जीपीटी-जे जैसे ओपन-सोर्स मॉडल पर भरोसा कर सकता है) और ट्विलियो आउटपुट को एक साथ जोड़ता है।
इस ऐप का समर्थन करने के लिए, मंटियम न केवल एआई प्रदाताओं जैसे ओपन एआई, को: हियर और एआई21 से मॉडल एपीआई के लिए व्यापक और समान पहुंच प्रदान करता है, बल्कि अत्याधुनिक ओपन सोर्स मॉडल भी प्रदान करता है। मंटियम में, हम मानते हैं कि किसी को भी आधुनिक एआई अनुप्रयोगों का निर्माण करने में सक्षम होना चाहिए जो उनके पास हैं, एंड-टू-एंड, और हम प्रदर्शन-अनुकूलित ओपन-सोर्स मॉडल को नो-कोड और लो-कोड एक्सेस प्रदान करके इसका समर्थन करते हैं।
उदाहरण के लिए, मंटियम के मुख्य ओपन-सोर्स मॉडल में से एक है जीपीटी-जे, एक अत्याधुनिक प्राकृतिक भाषा प्रसंस्करण (एनएलपी) मॉडल द्वारा विकसित किया गया है एलेउथेरे. 6 बिलियन मापदंडों के साथ, GPT-J सबसे बड़ा और सबसे अच्छा प्रदर्शन करने वाला ओपन-सोर्स टेक्स्ट जनरेशन मॉडल है। Mantium उपयोगकर्ता GPT-J को अपने AI अनुप्रयोगों में Mantium के AI बिल्डर के माध्यम से एकीकृत कर सकते हैं। GPT-J के मामले में, इसमें एक निर्दिष्ट करना शामिल है शीघ्र (मॉडल को क्या करना चाहिए इसका एक प्राकृतिक भाषा प्रतिनिधित्व) और कुछ वैकल्पिक मापदंडों को कॉन्फ़िगर करना।
उदाहरण के लिए, निम्न स्क्रीनशॉट एक भावना विश्लेषण संकेत का एक संक्षिप्त प्रदर्शन दिखाता है जो स्पष्टीकरण और भावना पूर्वानुमान उत्पन्न करता है। इस उदाहरण में, लेखक ने लिखा है कि "भोजन अद्भुत था" और उनकी "सेवा असाधारण थी।" इसलिए, यह पाठ सकारात्मक भावना व्यक्त करता है।
हालांकि, ओपन-सोर्स मॉडल के साथ एक चुनौती यह है कि वे शायद ही कभी उत्पादन-ग्रेड प्रदर्शन के लिए डिज़ाइन किए जाते हैं। जीपीटी-जे जैसे बड़े मॉडलों के मामले में, यह उपयोग के मामले के आधार पर उत्पादन परिनियोजन को अव्यवहारिक और यहां तक कि अव्यवहारिक बना सकता है।
यह सुनिश्चित करने के लिए कि हमारे उपयोगकर्ताओं के पास सर्वश्रेष्ठ-इन-क्लास प्रदर्शन तक पहुंच है, हम हमेशा अपने मुख्य मॉडलों की विलंबता को कम करने के तरीकों की तलाश में रहते हैं। इस पोस्ट में, हम एक अनुमान अनुकूलन प्रयोग के परिणामों का वर्णन करते हैं जिसमें हम GPT-J की अनुमान गति को लगभग 116% बढ़ाने के लिए डीपस्पीड के अनुमान इंजन का उपयोग करते हैं। हम यह भी वर्णन करते हैं कि हमने अपने में डीपस्पीड के साथ जीपीटी-जे के हगिंग फेस ट्रांसफॉर्मर कार्यान्वयन को कैसे तैनात किया है अमेज़न SageMaker अनुमान समापन बिंदु।
GPT-J मॉडल का अवलोकन
GPT-J एक जनरेटिव प्रीट्रेन्ड (GPT) भाषा मॉडल है और इसकी वास्तुकला के संदर्भ में, यह Open AI के GPT-3 जैसे लोकप्रिय, निजी, बड़े भाषा मॉडल से तुलनीय है। जैसा कि पहले उल्लेख किया गया है, इसमें लगभग 6 बिलियन पैरामीटर और 28 परतें शामिल हैं, जिसमें एक फीडफॉरवर्ड ब्लॉक और एक आत्म-ध्यान ब्लॉक शामिल है। जब इसे पहली बार जारी किया गया था, GPT-J उपयोग करने वाले पहले बड़े भाषा मॉडल में से एक था रोटरी एम्बेडिंग, एक नई स्थिति एन्कोडिंग रणनीति जो पूर्ण और सापेक्ष स्थिति एन्कोडर को एकीकृत करती है। यह एक अभिनव समानांतरकरण रणनीति को भी नियोजित करता है जहां घने और फीडफॉरवर्ड परतों को एक ही परत में जोड़ा जाता है, जो संचार ओवरहेड को कम करता है।
हालाँकि GPT-J आज के मानकों के हिसाब से उतना बड़ा नहीं हो सकता है - बड़े मॉडल में आमतौर पर 100 बिलियन से अधिक पैरामीटर होते हैं - यह अभी भी प्रभावशाली प्रदर्शन करता है, और कुछ त्वरित इंजीनियरिंग या न्यूनतम फ़ाइन-ट्यूनिंग के साथ, आप इसका उपयोग कई समस्याओं को हल करने के लिए कर सकते हैं। इसके अलावा, इसके अपेक्षाकृत मामूली आकार का मतलब है कि आप इसे बड़े मॉडलों की तुलना में अधिक तेजी से और बहुत कम लागत पर तैनात कर सकते हैं।
उस ने कहा, GPT-J अभी भी बहुत बड़ा है। उदाहरण के लिए, FP32 में GPT-J को पूर्ण वजन अपडेट और एडम ऑप्टिमाइज़र के प्रशिक्षण के लिए 200 GB से अधिक मेमोरी की आवश्यकता होती है: मॉडल मापदंडों के लिए 24 GB, ग्रेडिएंट के लिए 24 GB, एडम के वर्ग ग्रेडिएंट के लिए 24 GB, ऑप्टिमाइज़र राज्यों के लिए 24 GB, और प्रशिक्षण बैचों को लोड करने और सक्रियणों को संग्रहीत करने के लिए अतिरिक्त मेमोरी आवश्यकताएं। बेशक, FP16 में प्रशिक्षण इन स्मृति आवश्यकताओं को लगभग आधे से कम कर देता है, लेकिन 100 GB से अधिक की मेमोरी फ़ुटप्रिंट अभी भी नवीन प्रशिक्षण रणनीतियों की आवश्यकता है। उदाहरण के लिए, सेजमेकर के सहयोग से, मेंटियम की एनएलपी टीम ने एक विकसित किया वर्कफ़्लो प्रशिक्षण के लिए (फाइन-ट्यूनिंग) GPT-J सेजमेकर वितरित मॉडल समानांतर पुस्तकालय का उपयोग कर।
इसके विपरीत, अनुमान के लिए GPT-J की सेवा करने के लिए बहुत कम मेमोरी आवश्यकताएं होती हैं- FP16 में, मॉडल वज़न 13 GB से कम होता है, जिसका अर्थ है कि एक 16 GB GPU पर आसानी से अनुमान लगाया जा सकता है। हालाँकि, GPT-J के आउट-ऑफ-द-बॉक्स कार्यान्वयन के साथ अनुमान, जैसे हगिंग फेस ट्रांसफॉर्मर कार्यान्वयन हम जो उपयोग करते हैं, वह अपेक्षाकृत धीमा है। ऐसे उपयोग के मामलों का समर्थन करने के लिए जिनमें अत्यधिक प्रतिक्रियाशील टेक्स्ट-जनरेशन की आवश्यकता होती है, हमने GPT-J की अनुमान विलंबता को कम करने पर ध्यान केंद्रित किया है।
GPT-J . की प्रतिक्रिया विलंबता चुनौतियां
प्रतिक्रिया विलंबता जीपीटी-जे जैसे जनरेटिव प्रीट्रेन ट्रांसफॉर्मर (जीपीटी) के लिए एक मुख्य बाधा है जो आधुनिक पाठ पीढ़ी को शक्ति प्रदान करती है। GPT मॉडल अनुमान चरणों के अनुक्रमों के माध्यम से पाठ उत्पन्न करते हैं। प्रत्येक अनुमान चरण में, मॉडल को इनपुट के रूप में टेक्स्ट दिया जाता है, और इस इनपुट पर सशर्त, यह टेक्स्ट में जोड़ने के लिए अपनी शब्दावली से एक शब्द का नमूना लेता है। उदाहरण के लिए, टोकन के अनुक्रम को देखते हुए "मुझे एक छतरी की आवश्यकता है क्योंकि यह है," एक उच्च संभावना वाला अगला टोकन "बारिश हो रहा है।" हालाँकि, यह "धूप" या "बाध्य" भी हो सकता है, जो पाठ अनुक्रम की ओर पहला कदम हो सकता है जैसे "मुझे एक छतरी की आवश्यकता है क्योंकि यह बारिश शुरू होने के लिए बाध्य है।"
इस तरह के परिदृश्य जीपीटी मॉडल को तैनात करने के लिए कुछ दिलचस्प चुनौतियों का सामना करते हैं क्योंकि वास्तविक दुनिया के उपयोग के मामलों में दसियों, सैकड़ों या हजारों अनुमान कदम शामिल हो सकते हैं। उदाहरण के लिए, 1,000-टोकन प्रतिक्रिया उत्पन्न करने के लिए 1,000 अनुमान चरणों की आवश्यकता होती है! तदनुसार, हालांकि एक मॉडल अनुमान गति प्रदान कर सकता है जो अलगाव में काफी तेज लगती है, लंबे पाठ उत्पन्न होने पर विलंबता के लिए अस्थिर स्तर तक पहुंचना आसान है। हमने V280 GPU पर प्रति अनुमान चरण 100 मिलीसेकंड की औसत विलंबता देखी। यह 6.7 बिलियन पैरामीटर मॉडल के लिए तेज़ लग सकता है, लेकिन ऐसी विलंबता के साथ, 30-टोकन प्रतिक्रिया उत्पन्न करने में लगभग 500 सेकंड लगते हैं, जो कि उपयोगकर्ता अनुभव के दृष्टिकोण से आदर्श नहीं है।
डीपस्पीड इंट्रेंस के साथ अनुमान गति का अनुकूलन
गहरा माइक्रोसॉफ्ट द्वारा विकसित एक ओपन-सोर्स डीप-लर्निंग ऑप्टिमाइजेशन लाइब्रेरी है। हालांकि यह मुख्य रूप से बड़े मॉडलों के प्रशिक्षण के अनुकूलन पर केंद्रित है, डीपस्पीड एक अनुमान अनुकूलन ढांचा भी प्रदान करता है जो BERT, मेगाट्रॉन, GPT-Neo, GPT2 और GPT-J सहित मॉडलों के चुनिंदा सेट का समर्थन करता है। डीपस्पीड इंफ़ेक्शन मॉडल समानांतरवाद, अनुमान-अनुकूलित CUDA कर्नेल और परिमाणीकरण के संयोजन के माध्यम से बड़े ट्रांसफार्मर-आधारित आर्किटेक्चर के साथ उच्च-प्रदर्शन अनुमान की सुविधा प्रदान करता है।
GPT-J के साथ अनुमान की गति को बढ़ावा देने के लिए, हम हगिंग फेस ट्रांसफॉर्मर्स GPT-J कार्यान्वयन में अनुकूलित CUDA कर्नेल को इंजेक्ट करने के लिए डीपस्पीड के अनुमान इंजन का उपयोग करते हैं।
डीपस्पीड के अनुमान इंजन के गति लाभों का मूल्यांकन करने के लिए, हमने विलंबता परीक्षणों की एक श्रृंखला आयोजित की जिसमें हमने विभिन्न विन्यासों के तहत GPT-J को समयबद्ध किया। विशेष रूप से, हम भिन्न थे कि डीपस्पीड का उपयोग किया गया था या नहीं, हार्डवेयर, आउटपुट अनुक्रम लंबाई और इनपुट अनुक्रम लंबाई। हमने आउटपुट और इनपुट अनुक्रम लंबाई दोनों पर ध्यान केंद्रित किया, क्योंकि वे दोनों अनुमान गति को प्रभावित करते हैं। 50 टोकन का आउटपुट अनुक्रम उत्पन्न करने के लिए, मॉडल को 50 अनुमान चरणों का पालन करना चाहिए। इसके अलावा, एक अनुमान चरण को करने के लिए आवश्यक समय इनपुट अनुक्रम के आकार पर निर्भर करता है - बड़े इनपुट के लिए अधिक प्रसंस्करण समय की आवश्यकता होती है। हालांकि आउटपुट अनुक्रम आकार का प्रभाव इनपुट अनुक्रम आकार के प्रभाव से बहुत बड़ा है, फिर भी दोनों कारकों को ध्यान में रखना आवश्यक है।
हमारे प्रयोग में, हमने निम्नलिखित डिज़ाइन का उपयोग किया:
- डीपस्पीड इंट्रेंस इंजन - चालू बंद
- हार्डवेयर - T4 (ml.g4dn.2xlarge), V100 (ml.p3.2xबड़ा)
- इनपुट अनुक्रम लंबाई - 50, 200, 500, 1000
- आउटपुट अनुक्रम लंबाई - 50, 100, 150, 200
कुल मिलाकर, इस डिज़ाइन में इन चार कारकों के 64 संयोजन हैं, और प्रत्येक संयोजन के लिए, हमने 20 विलंबता परीक्षण चलाए। प्रत्येक परीक्षण एक पूर्व-आरंभीकृत सेजमेकर निष्कर्ष समापन बिंदु पर चलाया गया था, यह सुनिश्चित करते हुए कि हमारे विलंबता परीक्षण एपीआई एक्सचेंज और प्रीप्रोसेसिंग सहित उत्पादन समय को दर्शाते हैं।
हमारे परीक्षणों से पता चलता है कि डीपस्पीड का GPT-J इंट्रेंस इंजन बेसलाइन हगिंग फेस ट्रांसफॉर्मर्स PyTorch कार्यान्वयन की तुलना में काफी तेज है। निम्न आंकड़ा GPT-J के लिए ml.g4dn.2xlarge और ml.p3.2xlarge SageMaker अनुमान समापन बिंदुओं पर डीपस्पीड त्वरण के साथ और बिना माध्य टेक्स्ट जनरेशन लेटेंसी को दिखाता है।
ml.g4dn.2xlarge इंस्टेंस पर, जो कि 16 GB NVIDIA T4 GPU से लैस है, हमने औसत विलंबता में लगभग 24% की कमी देखी [Standard Deviation (SD) = 0.05]। यह औसत 12.5 (एसडी = 0.91) टोकन प्रति सेकंड से बढ़कर 16.5 (एसडी = 2.13) प्रति सेकंड टोकन के बराबर है। विशेष रूप से, डीपस्पीड का त्वरण प्रभाव ml.p3.2xlarge इंस्टेंस पर और भी मजबूत था, जो कि NVIDIA V100 GPU से लैस है। उस हार्डवेयर पर, हमने 53% (SD = .07) माध्य विलंबता कमी देखी। टोकन प्रति सेकंड के संदर्भ में, यह प्रति सेकंड औसत 21.9 (एसडी = 1.97) टोकन से बढ़कर 47.5 (एसडी = 5.8) टोकन प्रति सेकंड हो गया।
हमने यह भी देखा कि डीपस्पीड द्वारा पेश किया गया त्वरण दोनों हार्डवेयर विन्यासों पर थोड़ा कम हो गया क्योंकि इनपुट अनुक्रमों का आकार बढ़ता गया। हालांकि, सभी स्थितियों में, डीपस्पीड के जीपीटी-जे अनुकूलन के साथ अनुमान अभी भी बेसलाइन की तुलना में काफी तेज था। उदाहरण के लिए, g4dn उदाहरण पर, अधिकतम और न्यूनतम विलंबता में कमी क्रमशः 31% (इनपुट अनुक्रम आकार = 50) और 15% (इनपुट अनुक्रम आकार = 1000) थी। और p3 उदाहरण पर, अधिकतम और न्यूनतम विलंबता में कमी क्रमशः 62% (इनपुट अनुक्रम आकार = 50) और 40% (इनपुट अनुक्रम आकार = 1000) थी।
सेजमेकर इंट्रेंस एंडपॉइंट पर डीपस्पीड के साथ जीपीटी-जे को तैनात करना
जीपीटी-जे के लिए नाटकीय रूप से टेक्स्ट जेनरेशन स्पीड बढ़ाने के अलावा, डीपस्पीड का इंट्रेंस इंजन सेजमेकर इंट्रेंस एंडपॉइंट में एकीकृत करने के लिए सरल है। डीपस्पीड को हमारे इंट्रेंस स्टैक में जोड़ने से पहले, हमारे एंडपॉइंट एक आधिकारिक पायटॉर्च छवि के आधार पर एक कस्टम डॉकर छवि पर चल रहे थे। सेजमेकर कस्टम इंट्रेंस एंडपॉइंट्स को तैनात करना बहुत आसान बनाता है, और डीपस्पीड को एकीकृत करना उतना ही सरल था जितना कि निर्भरता और कोड की कुछ पंक्तियों को लिखना। डीपस्पीड के साथ GPT-J को परिनियोजित करने के लिए परिनियोजन वर्कफ़्लो के लिए ओपन-सोर्स गाइड पर उपलब्ध है GitHub.
निष्कर्ष
मंटियम अग्रणी नवाचार के लिए समर्पित है ताकि हर कोई एआई के साथ जल्दी से निर्माण कर सके। एआई-संचालित प्रोसेस ऑटोमेशन से लेकर सख्त सुरक्षा और अनुपालन सेटिंग्स तक, हमारा पूरा प्लेटफॉर्म बड़े पैमाने पर मजबूत, जिम्मेदार एआई अनुप्रयोगों को विकसित और प्रबंधित करने के लिए आवश्यक सभी उपकरण प्रदान करता है और प्रवेश की बाधा को कम करता है। सेजमेकर मंटियम जैसी कंपनियों को जल्दी बाजार में लाने में मदद करता है।
यह जानने के लिए कि कैसे Mantium आपके संगठन के लिए जटिल AI-संचालित वर्कफ़्लो बनाने में आपकी मदद कर सकता है, यहाँ जाएँ www.mantiumai.com.
लेखक के बारे में
जो हूवर मैंटियम की AI R&D टीम में वरिष्ठ अनुप्रयुक्त वैज्ञानिक हैं। वह मॉडल, विधियों और बुनियादी ढांचे के विकास के बारे में भावुक हैं जो लोगों को अत्याधुनिक एनएलपी सिस्टम के साथ वास्तविक दुनिया की समस्याओं को हल करने में मदद करते हैं। अपने खाली समय में, वह बैकपैकिंग, बागवानी, खाना पकाने और अपने परिवार के साथ घूमने का आनंद लेता है।
धवल पटेल AWS में प्रिंसिपल मशीन लर्निंग आर्किटेक्ट हैं। उन्होंने वितरित कंप्यूटिंग और आर्टिफिशियल इंटेलिजेंस से संबंधित समस्याओं पर बड़े उद्यमों से लेकर मध्यम आकार के स्टार्टअप तक के संगठनों के साथ काम किया है। वह एनएलपी और कंप्यूटर विज़न डोमेन सहित डीप लर्निंग पर ध्यान केंद्रित करता है। वह ग्राहकों को सेजमेकर पर उच्च प्रदर्शन मॉडल अनुमान प्राप्त करने में मदद करता है।
सुनील पद्मनाभन एडब्ल्यूएस में स्टार्टअप सॉल्यूशंस आर्किटेक्ट हैं। एक पूर्व स्टार्टअप संस्थापक और सीटीओ के रूप में, वह मशीन लर्निंग के बारे में भावुक हैं और स्टार्टअप्स को अपने व्यावसायिक परिणामों के लिए एआई / एमएल का लाभ उठाने और बड़े पैमाने पर एमएल / एआई समाधानों को डिजाइन और तैनात करने में मदद करने पर ध्यान केंद्रित करते हैं।
- कॉइनस्मार्ट। यूरोप का सर्वश्रेष्ठ बिटकॉइन और क्रिप्टो एक्सचेंज।
- प्लेटोब्लॉकचैन। Web3 मेटावर्स इंटेलिजेंस। ज्ञान प्रवर्धित। नि: शुल्क प्रवेश।
- क्रिप्टोहॉक। Altcoin रडार। मुफ्त परीक्षण।
- स्रोत: https://aws.amazon.com/blogs/machine-learning/how-mantium-achieves-low-latency-gpt-j-inference-with-deepspeed-on-amazon-sagemaker/
- "
- 000
- 100
- 28
- 7
- 9
- a
- About
- पूर्ण
- पहुँच
- तदनुसार
- लेखा
- पाना
- के पार
- इसके अलावा
- अतिरिक्त
- को प्रभावित
- AI
- सब
- हालांकि
- हमेशा
- वीरांगना
- विश्लेषण
- किसी
- एपीआई
- एपीआई
- अनुप्रयोग
- अनुप्रयोगों
- लागू
- दृष्टिकोण
- लगभग
- क्षुधा
- स्थापत्य
- कृत्रिम
- कृत्रिम बुद्धिमत्ता
- स्वचालित
- स्वचालन
- उपलब्ध
- औसत
- एडब्ल्यूएस
- अवरोध
- आधारभूत
- क्योंकि
- से पहले
- लाभ
- बिलियन
- खंड
- निर्माण
- निर्माता
- इमारत
- व्यापार
- व्यवसायों
- मामलों
- चुनौती
- चुनौतियों
- बादल
- क्लाउड प्लेटफॉर्म
- कोड
- सहयोग
- संयोजन
- संयोजन
- संयुक्त
- संचार
- कंपनियों
- पूरा
- जटिल
- अनुपालन
- व्यापक
- कंप्यूटर
- कंप्यूटिंग
- स्थितियां
- मूल
- सका
- सीटीओ
- रिवाज
- ग्राहक
- अग्रणी
- समर्पित
- गहरा
- बचाता है
- दिखाना
- निर्भर करता है
- निर्भर करता है
- तैनात
- तैनात
- तैनाती
- तैनाती
- वर्णन
- डिज़ाइन
- बनाया गया
- विकसित करना
- विकसित
- विकासशील
- विकास
- वितरित
- वितरित अभिकलन
- डाक में काम करनेवाला मज़दूर
- डोमेन
- नाटकीय रूप से
- आसानी
- प्रभाव
- रोजगार
- सक्षम बनाता है
- शुरू से अंत तक
- endpoint
- इंजन
- अभियांत्रिकी
- इंजीनियर्स
- सुनिश्चित
- उद्यम
- सुसज्जित
- मूल्यांकन करें
- हर कोई
- उदाहरण
- एक्सचेंजों
- अनुभव
- प्रयोग
- व्यापक
- असाधारण
- चेहरा
- कारकों
- परिवार
- फास्ट
- और तेज
- Feature
- विशेषताएं
- आकृति
- प्रथम
- ध्यान केंद्रित
- केंद्रित
- निम्नलिखित
- पदचिह्न
- संस्थापक
- ढांचा
- से
- पूर्ण
- और भी
- उत्पन्न
- सृजन
- पीढ़ी
- उत्पादक
- वैश्विक
- शासन
- GPU
- बढ़ रहा है
- गाइड
- हार्डवेयर
- मदद
- मदद
- मदद करता है
- यहाँ उत्पन्न करें
- हाई
- अत्यधिक
- कैसे
- तथापि
- HTTPS
- सैकड़ों
- आदर्श
- की छवि
- कार्यान्वयन
- सहित
- बढ़ना
- बढ़ती
- नवोन्मेष
- अभिनव
- निवेश
- उदाहरण
- एकीकृत
- एकीकरण
- बुद्धि
- अलगाव
- IT
- भाषा
- बड़ा
- बड़ा
- सबसे बड़ा
- परत
- प्रमुख
- जानें
- सीख रहा हूँ
- स्तर
- स्तर
- लीवरेज
- पुस्तकालय
- पंक्तियां
- लोड हो रहा है
- लंबा
- देख
- मशीन
- यंत्र अधिगम
- बनाना
- बनाता है
- प्रबंधन
- प्रबंध
- बाजार
- साधन
- याद
- तरीकों
- माइक्रोसॉफ्ट
- हो सकता है
- न्यूनतम
- ML
- आदर्श
- मॉडल
- निगरानी
- महीने
- अधिक
- प्राकृतिक
- आवश्यक
- Nvidia
- बाधा
- प्रस्ताव
- प्रस्तुत
- सरकारी
- खुला
- खुला स्रोत
- संचालन
- इष्टतमीकरण
- अनुकूलित
- के अनुकूलन के
- संगठन
- संगठनों
- अपना
- आवेशपूर्ण
- स्टाफ़
- प्रदर्शन
- परिप्रेक्ष्य
- मंच
- नीतियाँ
- नीति
- लोकप्रिय
- स्थिति
- सकारात्मक
- संभव
- बिजली
- भविष्यवाणियों
- सुंदर
- प्रिंसिपल
- निजी
- समस्याओं
- प्रक्रिया
- प्रक्रिया स्वचालन
- प्रक्रियाओं
- प्रसंस्करण
- उत्पादन
- प्रदाता
- प्रदाताओं
- प्रदान करता है
- प्रदान कर
- अर्हता
- जल्दी से
- अनुसंधान और विकास
- उठाना
- लेकर
- पहुंच
- को कम करने
- प्रतिबिंबित
- रिहा
- विज्ञप्ति
- प्रतिनिधित्व
- की आवश्यकता होती है
- अपेक्षित
- आवश्यकताएँ
- की आवश्यकता होती है
- प्रतिक्रिया
- जिम्मेदार
- परिणाम
- रन
- दौड़ना
- सुरक्षा
- कहा
- स्केल
- वैज्ञानिक
- सेकंड
- चयन
- भावुकता
- कई
- सेवारत
- सेट
- सरल
- एक
- आकार
- So
- सॉफ्टवेयर
- समाधान ढूंढे
- हल
- कुछ
- परिष्कृत
- विशेष रूप से
- गति
- गति
- खर्च
- धुआँरा
- मानक
- प्रारंभ
- स्टार्टअप
- स्टार्टअप
- राज्य के-the-कला
- राज्य
- फिर भी
- रणनीतियों
- स्ट्रेटेजी
- मजबूत
- समर्थन
- समर्थन करता है
- सिस्टम
- टीम
- तकनीकी
- शर्तों
- परीक्षण
- परीक्षण
- RSI
- इसलिये
- हजारों
- यहाँ
- पहर
- बार
- आज का दि
- एक साथ
- टोकन
- टोकन
- उपकरण
- पारंपरिक रूप से
- प्रशिक्षण
- आम तौर पर
- ui
- के अंतर्गत
- अपडेट
- उपयोग
- उपयोगकर्ताओं
- विभिन्न
- दृष्टि
- तरीके
- वेब
- क्या
- पहिया
- या
- बिना
- काम किया
- workflows
- लिख रहे हैं
- आपका