फैशन उद्योग एक है अत्यधिक लाभदायक व्यवसायविश्व बैंक की रिपोर्ट के अनुसार, 2.1 तक $2025 ट्रिलियन के अनुमानित मूल्य के साथ। इस क्षेत्र में विविध श्रेणी के खंड शामिल हैं, जैसे कि निर्माण, निर्माण, वितरण और कपड़े, जूते और सामान की बिक्री। उद्योग निरंतर परिवर्तन की स्थिति में है, जिसमें नई शैली और रुझान अक्सर दिखाई देते हैं। इसलिए, फैशन कंपनियों को अपनी प्रासंगिकता बनाए रखने और बाजार में सफलता हासिल करने के लिए लचीला और अनुकूलन करने में सक्षम होना चाहिए।
जनरेटिव आर्टिफिशियल इंटेलिजेंस (एआई) सीखे गए पैटर्न और डेटा के एक सेट के आधार पर नई सामग्री, जैसे चित्र, पाठ, ऑडियो या वीडियो उत्पन्न करने के लिए डिज़ाइन किए गए एआई एल्गोरिदम को संदर्भित करता है। बेहतर निजीकरण और लागत-प्रभावशीलता की पेशकश करते हुए नए और अभिनव परिधान डिजाइन तैयार करने के लिए इसका उपयोग किया जा सकता है। एआई-संचालित डिज़ाइन टूल टेक्स्ट प्रांप्ट के माध्यम से संभावित ग्राहकों द्वारा निर्दिष्ट इनपुट पैरामीटर या शैलियों के आधार पर अद्वितीय परिधान डिज़ाइन बना सकते हैं। इसके अलावा, एआई का उपयोग ग्राहक की प्राथमिकताओं के अनुसार डिजाइनों को निजीकृत करने के लिए किया जा सकता है। उदाहरण के लिए, एक ग्राहक विभिन्न प्रकार के रंगों, पैटर्नों और शैलियों में से चुन सकता है, और एआई मॉडल उन चयनों के आधार पर एक तरह का डिज़ाइन तैयार करेगा। फैशन उद्योग में एआई को अपनाना वर्तमान में विभिन्न तकनीकी, व्यवहार्यता और लागत चुनौतियों से बाधित है। हालाँकि, इन बाधाओं को अब उन्नत जनरेटिव AI विधियों जैसे कि प्राकृतिक भाषा-आधारित छवि सिमेंटिक सेगमेंटेशन और वर्चुअल स्टाइल के लिए प्रसार का उपयोग करके कम किया जा सकता है।
यह ब्लॉग पोस्ट टेक्स्ट प्रॉम्प्ट का उपयोग करके जेनेरेटिव एआई-असिस्टेड फैशन ऑनलाइन स्टाइलिंग के कार्यान्वयन का विवरण देता है। मशीन लर्निंग (एमएल) इंजीनियर पूर्व-प्रशिक्षित CLIPSeq और स्थिर प्रसार के आधार पर टेक्स्ट-टू-सिमेंटिक-सेगमेंटेशन और इन-पेंटिंग मॉडल को फ़ाइन-ट्यून और परिनियोजित कर सकते हैं अमेज़न SageMaker. यह फैशन डिजाइनरों और उपभोक्ताओं को पाठ संकेतों के आधार पर आभासी मॉडलिंग छवियां बनाने और उनकी पसंदीदा शैलियों को चुनने में सक्षम बनाता है।
जनरेटिव एआई समाधान
RSI क्लिपसेग मॉडल ने एक नई छवि सिमेंटिक सेगमेंटेशन विधि पेश की जिससे आप सरल टेक्स्ट कमांड का उपयोग करके चित्रों में आसानी से फैशन आइटम की पहचान कर सकें। यह टेक्स्ट प्रांप्ट या इमेज एनकोडर का उपयोग मल्टीमॉडल एम्बेडिंग स्पेस में टेक्स्ट और विज़ुअल जानकारी को एनकोड करने के लिए करता है, जिससे प्रांप्ट के आधार पर लक्षित वस्तुओं का अत्यधिक सटीक विभाजन हो जाता है। मॉडल को जीरो-शॉट ट्रांसफर, नेचुरल लैंग्वेज सुपरविजन और मल्टीमॉडल सेल्फ सुपरवाइज्ड कंट्रास्टिव लर्निंग जैसी तकनीकों के साथ बड़ी मात्रा में डेटा पर प्रशिक्षित किया गया है। इसका मतलब है कि आप सार्वजनिक रूप से उपलब्ध पूर्व-प्रशिक्षित मॉडल का उपयोग कर सकते हैं टिमो लुडेके एट अल अनुकूलन की आवश्यकता के बिना।
CLIPSeg एक मॉडल है जो एक पाठ और छवि एनकोडर का उपयोग पाठ्य और दृश्य जानकारी को एक पाठ संकेत के आधार पर शब्दार्थ विभाजन करने के लिए एक मल्टीमॉडल एम्बेडिंग स्थान में एन्कोड करने के लिए करता है। CLIPSeg के आर्किटेक्चर में दो मुख्य घटक होते हैं: एक टेक्स्ट एनकोडर और एक इमेज एनकोडर। टेक्स्ट एन्कोडर टेक्स्ट प्रॉम्प्ट लेता है और इसे टेक्स्ट एम्बेडिंग में परिवर्तित करता है, जबकि छवि एन्कोडर छवि में लेता है और इसे छवि एम्बेडिंग में परिवर्तित करता है। दोनों एम्बेडिंग को तब जोड़ा जाता है और अंतिम विभाजन मुखौटा बनाने के लिए पूरी तरह से जुड़ी हुई परत के माध्यम से पारित किया जाता है।
डेटा प्रवाह के संदर्भ में, मॉडल को छवियों के डेटासेट और संबंधित पाठ संकेतों पर प्रशिक्षित किया जाता है, जहां पाठ संकेत लक्ष्य वस्तु को खंडित करने का वर्णन करता है। प्रशिक्षण प्रक्रिया के दौरान, टेक्स्ट एनकोडर और इमेज एनकोडर को अंतिम सेगमेंटेशन मास्क बनाने के लिए टेक्स्ट प्रॉम्प्ट और इमेज के बीच मैपिंग सीखने के लिए अनुकूलित किया जाता है। एक बार जब मॉडल प्रशिक्षित हो जाता है, तो यह एक नया टेक्स्ट प्रॉम्प्ट और इमेज ले सकता है और प्रॉम्प्ट में वर्णित ऑब्जेक्ट के लिए एक सेगमेंटेशन मास्क तैयार कर सकता है।
स्थिर प्रसार एक ऐसी तकनीक है जो फैशन डिजाइनरों को लंबे और महंगे अनुकूलन की आवश्यकता के बिना पूरी तरह से टेक्स्ट विवरण के आधार पर बड़ी मात्रा में अत्यधिक यथार्थवादी इमेजरी उत्पन्न करने की अनुमति देती है। यह उन डिजाइनरों के लिए फायदेमंद है जो जल्दी से प्रचलित शैली बनाना चाहते हैं, और निर्माता जो कम कीमत पर व्यक्तिगत उत्पादों का उत्पादन करना चाहते हैं।
निम्नलिखित आरेख स्थिर प्रसार वास्तुकला और डेटा प्रवाह को दर्शाता है।
पारंपरिक जीएएन-आधारित तरीकों की तुलना में, स्थिर प्रसार एक जनरेटिव एआई है जो मूल छवि के वितरण से मेल खाने वाली अधिक स्थिर और फोटो-यथार्थवादी छवियां बनाने में सक्षम है। मॉडल को उद्देश्यों की एक विस्तृत श्रृंखला पर वातानुकूलित किया जा सकता है, जैसे टेक्स्ट-टू-इमेज जनरेशन के लिए टेक्स्ट, लेआउट-टू-इमेज जेनरेशन के लिए बाउंडिंग बॉक्स, इन-पेंटिंग के लिए मास्क्ड इमेज और सुपर-रिज़ॉल्यूशन के लिए लो-रिज़ॉल्यूशन इमेज। प्रसार मॉडल में व्यावसायिक अनुप्रयोगों की एक विस्तृत श्रृंखला होती है, और उनके व्यावहारिक उपयोग विकसित होते रहते हैं। इन मॉडलों से फैशन, खुदरा और ई-कॉमर्स, मनोरंजन, सोशल मीडिया, मार्केटिंग आदि जैसे विभिन्न उद्योगों को बहुत लाभ होगा।
CLIPSeg का उपयोग करके पाठ संकेतों से मास्क उत्पन्न करें
वोग ऑनलाइन स्टाइलिंग एक ऐसी सेवा है जो ग्राहकों को ऑनलाइन प्लेटफॉर्म के माध्यम से एआई से फैशन सलाह और सिफारिशें प्राप्त करने में सक्षम बनाती है। यह ऐसे कपड़ों और सहायक उपकरणों का चयन करके करता है जो ग्राहक की उपस्थिति के पूरक हों, उनके बजट में फिट हों, और उनकी व्यक्तिगत प्राथमिकताओं से मेल खाते हों। जनरेटिव एआई के उपयोग से कार्यों को अधिक आसानी से पूरा किया जा सकता है, जिससे ग्राहकों की संतुष्टि बढ़ती है और खर्च कम होता है।
समाधान को एक पर परिनियोजित किया जा सकता है अमेज़न इलास्टिक कंप्यूट क्लाउड (EC2) p3.2xlarge उदाहरण, जिसमें 100G मेमोरी के साथ एक एकल V16 GPU है। प्रदर्शन को बेहतर बनाने और जीपीयू मेमोरी उपयोग को कम करने के लिए कई तकनीकों को नियोजित किया गया, जिसके परिणामस्वरूप तेजी से छवि निर्माण हुआ। इनमें fp16 का उपयोग करना और ध्यान ब्लॉक में बैंडविड्थ को कम करने के लिए स्मृति कुशल ध्यान को सक्षम करना शामिल है।
हमने उपयोगकर्ता से एक फैशन छवि अपलोड करने के बाद शुरू किया, इसके बाद CLIPSeq से पूर्व-प्रशिक्षित मॉडल को डाउनलोड और निकाला। छवि को तब सामान्यीकृत किया जाता है और आकार सीमा का अनुपालन करने के लिए आकार दिया जाता है। स्थिर प्रसार V2 768 × 768 तक छवि रिज़ॉल्यूशन का समर्थन करता है जबकि V1 512 × 512 तक का समर्थन करता है। निम्नलिखित कोड देखें:
from models.clipseg import CLIPDensePredT # The original image
image = download_image(img_url).resize((768, 768)) # Download pre-trained CLIPSeq model and unzip the pkg
! wget https://owncloud.gwdg.de/index.php/s/ioHbRzFx6th32hn/download -O weights.zip
! unzip -d weights -j weights.zip # Load CLIP model. Available models = ['RN50', 'RN101', 'RN50x4', # 'RN50x16', 'RN50x64', 'ViT-B/32', 'ViT-B/16', 'ViT-L/14', 'ViT-L/14@336px']
model = CLIPDensePredT(version='ViT-B/16', reduce_dim=64)
model.eval() # non-strict, because we only stored decoder weights (not CLIP weights)
model.load_state_dict(torch.load('weights/rd64-uni.pth', map_location=torch.device('cuda')), strict=False) # Image normalization and resizing
transform = transforms.Compose([ transforms.ToTensor(), transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]), transforms.Resize((768, 768)),
])
img = transform(image).unsqueeze(0)
पूर्व-प्रशिक्षित CLIPSeq मॉडल के उपयोग के साथ, हम टेक्स्ट प्रांप्ट का उपयोग करके छवि से लक्षित वस्तु निकालने में सक्षम हैं। यह टेक्स्ट प्रॉम्प्ट को टेक्स्ट एनकोडर में इनपुट करके किया जाता है, जो इसे टेक्स्ट एम्बेडिंग में परिवर्तित करता है। इसके बाद इमेज को इमेज एनकोडर में इनपुट किया जाता है, जो इसे इमेज एम्बेडिंग में बदल देता है। दोनों एम्बेडिंग को तब जोड़ा जाता है और अंतिम सेगमेंटेशन मास्क बनाने के लिए पूरी तरह से कनेक्टेड लेयर से गुजारा जाता है, जो टेक्स्ट प्रॉम्प्ट में वर्णित टारगेट ऑब्जेक्ट को हाइलाइट करता है। निम्नलिखित कोड देखें:
# Text prompt
prompt = 'Get the dress only.' # predict
mask_image_filename = 'the_mask_image.png'
with torch.no_grad(): preds = model(img.repeat(4,1,1,1), prompt)[0] # save the mask image after computing the area under the standard # Gaussian probability density function and calculates the cumulative # distribution function of the normal distribution with ndtr. plt.imsave(mask_image_filename,torch.special.ndtr(preds[0][0]))
सिमेंटिक सेगमेंटेशन से सटीक मुखौटा छवि के साथ, हम सामग्री प्रतिस्थापन के लिए इन-पेंटिंग का उपयोग कर सकते हैं। इन-पेंटिंग एक छवि के लापता भागों को भरने के लिए एक प्रशिक्षित जनरेटिव मॉडल का उपयोग करने की प्रक्रिया है। लक्ष्य वस्तु की पहचान करने के लिए मुखौटा छवि का उपयोग करके, हम लक्ष्य वस्तु को किसी अन्य चीज़ के साथ बदलने के लिए इन-पेंटिंग तकनीक को लागू कर सकते हैं, जैसे कि एक अलग कपड़े की वस्तु या सहायक उपकरण। इस उद्देश्य के लिए स्थिर प्रसार V2 मॉडल का उपयोग किया जा सकता है, क्योंकि यह उच्च-रिज़ॉल्यूशन, फोटो-यथार्थवादी छवियों का उत्पादन करने में सक्षम है जो मूल छवि के वितरण से मेल खाते हैं।
DreamBooth का उपयोग करके पूर्व-प्रशिक्षित मॉडलों से फ़ाइन-ट्यूनिंग
फ़ाइन-ट्यूनिंग गहरी शिक्षा में एक प्रक्रिया है जहाँ एक पूर्व-प्रशिक्षित मॉडल को एक छोटे से लेबल किए गए डेटा का उपयोग करके एक नए कार्य पर आगे प्रशिक्षित किया जाता है। खरोंच से प्रशिक्षण के बजाय, विचार एक ऐसे नेटवर्क को लेने का है जो पहले से ही एक समान कार्य के लिए एक बड़े डेटासेट पर प्रशिक्षित किया गया है और इसे उस विशेष कार्य के लिए इसे और अधिक विशिष्ट बनाने के लिए एक नए डेटासेट पर प्रशिक्षित किया गया है।
फैशन डिजाइनर महिलाओं के लिए आकस्मिक लंबी स्कर्ट जैसी शैली की एक विशिष्ट श्रेणी उत्पन्न करने के लिए एक विषय-संचालित, ठीक-ठीक स्थिर प्रसार इन-पेंटिंग मॉडल का उपयोग कर सकते हैं। ऐसा करने के लिए, पहला कदम लक्षित डोमेन में नमूना छवियों का एक सेट प्रदान करना है, मोटे तौर पर लगभग 1 दर्जन, उचित पाठ लेबल जैसे कि निम्नलिखित और उन्हें एक अद्वितीय पहचानकर्ता से बांधना है जो डिजाइन, शैली, रंग और कपड़े का संदर्भ देता है। . ठीक-ट्यून किए गए मॉडल के परिणामों को निर्धारित करने में पाठ पर लेबल महत्वपूर्ण भूमिका निभाता है। प्रभावी के माध्यम से फाइन ट्यूनिंग को बढ़ाने के कई तरीके हैं शीघ्र इंजीनियरिंग और यहाँ कुछ उदाहरण हैं।
Sample text prompts to descibe some of the most common design elements of casual long skirts for ladies: Design Style: A-line, wrap, maxi, mini, and pleated skirts are some of the most popular styles for casual wear. A-line skirts are fitted at the waist and flare out at the hem, creating a flattering silhouette. Wrap skirts have a wrap closure and can be tied at the waist for a customizable fit. Maxi skirts are long and flowy, while mini skirts are short and flirty. Pleated skirts have folds that add texture and movement to the garment.
Pattern: Casual skirts can feature a variety of patterns, including stripes, florals, polka dots, and solids. These patterns can range from bold and graphic to subtle and understated.
Colors: Casual skirts come in a range of colors, including neutral shades likeblack, white, and gray, as well as brighter hues like pink, red, and blue. Some skirts may also feature multiple colors in a single garment, such asa skirt with a bold pattern that incorporates several shades.
Fabrics: Common fabrics used in casual skirts include cotton, denim, linen, and rayon. These materials offer different levels of comfort and durability, making it easy to find a skirt that suits your personal style and needs.
स्थिर प्रसार को ठीक करने के लिए छवियों के एक छोटे सेट का उपयोग करने से मॉडल ओवरफिटिंग हो सकता है। ड्रीमबुथ [5] इसे वर्ग-विशिष्ट पूर्व-संरक्षण हानि का उपयोग करके संबोधित करता है। यह दो चरणों में उस विशिष्ट विषय के साथ एक विशिष्ट पहचानकर्ता को बांधना सीखता है। सबसे पहले, यह कम-रिज़ॉल्यूशन वाले मॉडल को टेक्स्ट प्रॉम्प्ट के साथ जोड़े गए इनपुट इमेज के साथ फ़ाइन-ट्यून करता है जिसमें एक अद्वितीय पहचानकर्ता और विषय का नाम होता है, जैसे कि "स्कर्ट"। व्यवहार में, इसका मतलब है कि मॉडल को छवियों में फिट करना और छवियों को एक साथ गैर-ठीक-ट्यून किए गए वर्ग से पहले के दृश्य से नमूना लेना। इन पूर्व-संरक्षित छवियों को "वर्ग संज्ञा" संकेत का उपयोग करके नमूना और लेबल किया गया है। दूसरा, यह इनपुट छवियों के सेट से कम-रिज़ॉल्यूशन और उच्च-रिज़ॉल्यूशन छवियों को जोड़कर सुपर-हाई-रिज़ॉल्यूशन घटकों को ठीक-ठीक करेगा, जो ठीक-ट्यून किए गए मॉडल के आउटपुट को छोटे विवरणों के प्रति निष्ठा बनाए रखने की अनुमति देता है।
512 × 512 छवियों के रिज़ॉल्यूशन के लिए UNet के साथ एक पूर्व-प्रशिक्षित इन-पेंटिंग टेक्स्ट एनकोडर को फ़ाइन-ट्यूनिंग करने के लिए 22 × 768 रिज़ॉल्यूशन के लिए लगभग 768GB VRAM या उच्चतर की आवश्यकता होती है। प्रदर्शन में गिरावट से बचने के लिए वांछनीय आउटपुट छवि रिज़ॉल्यूशन से मिलान करने के लिए आदर्श रूप से फ़ाइन-ट्यून नमूनों का आकार बदलना चाहिए। टेक्स्ट एनकोडर मॉडल चेहरों जैसे अधिक सटीक विवरण उत्पन्न करता है। एक विकल्प एकल AWS EC2 g5.2xlarge उदाहरण पर चलाना है, जो अब उपलब्ध है आठ क्षेत्र या एक वितरित कॉन्फ़िगरेशन में फ़ाइन-ट्यून किए गए कोड को चलाने के लिए हगिंग फ़ेस एक्सीलरेट का उपयोग करें। अतिरिक्त मेमोरी बचत के लिए, आप ध्यान का एक कटा हुआ संस्करण चुन सकते हैं जो पाइपलाइन को सक्षम करने के लिए ड्रीमबूथ की प्रशिक्षण स्क्रिप्ट train_dreambooth_inpaint.py को संशोधित करके चरणों में गणना करता है।
त्वरण एक पुस्तकालय है जो किसी भी वितरित कॉन्फ़िगरेशन में एक ठीक ट्यूनिंग कोड को चलाने में सक्षम बनाता है। हगिंग फेस और अमेज़ॅन पेश किया हगिंग फेस डीप लर्निंग कंटेनर्स (डीएलसी) एकाधिक जीपीयू और नोड्स में ठीक ट्यूनिंग कार्यों को स्केल करने के लिए। आप Amazon SageMaker के लिए सिंगल सीएलआई कमांड के साथ लॉन्च कॉन्फ़िगरेशन को कॉन्फ़िगर कर सकते हैं।
# From your aws account, install the sagemaker sdk for Accelerate
pip install "accelerate[sagemaker]" --upgrade # Configure the launch configuration for Amazon SageMaker accelerate config # List and verify Accelerate configuration
accelerate env # Make necessary modification of the training script as the following to save # output on S3, if needed
# - torch.save('/opt/ml/model`)
# + accelerator.save('/opt/ml/model')
फ़ाइन-ट्यून कार्य प्रारंभ करने के लिए, Accelerate के कॉन्फ़िगरेशन का उपयोग करके सत्यापित करें सीएलआई और आवश्यक प्रशिक्षण तर्क प्रदान करें, फिर निम्न शेल स्क्रिप्ट का उपयोग करें।
# Instance images — Custom images that represents the specific # concept for dreambooth training. You should collect # high #quality images based on your use cases.
# Class images — Regularization images for prior-preservation # loss to prevent overfitting. You should generate these # images directly from the base pre-trained model. # You can choose to generate them on your own or generate # them on the fly when running the training script.
# # You can access train_dreambooth_inpaint.py from huggingface/diffuser export MODEL_NAME="stabilityai/stable-diffusion-2-inpainting"
export INSTANCE_DIR="/data/fashion/gowns/highres/"
export CLASS_DIR="/opt/data/fashion/generated_gowns/imgs"
export OUTPUT_DIR="/opt/model/diffuser/outputs/inpainting/" accelerate launch train_dreambooth_inpaint.py --pretrained_model_name_or_path=$MODEL_NAME --train_text_encoder --instance_data_dir=$INSTANCE_DIR --class_data_dir=$CLASS_DIR --output_dir=$OUTPUT_DIR --with_prior_preservation --prior_loss_weight=1.0 --instance_prompt="A supermodel poses in long summer travel skirt, photorealistic" --class_prompt="A supermodel poses in skirt, photorealistic" --resolution=512 --train_batch_size=1 --use_8bit_adam --gradient_checkpointing --learning_rate=2e-6 --lr_scheduler="constant" --lr_warmup_steps=0 --num_class_images=200 --max_train_steps=800
फाइन-ट्यून इन-पेंटिंग मॉडल पाठ प्रांप्ट द्वारा वर्णित फैशन वर्ग के लिए अधिक विशिष्ट छवियों की पीढ़ी के लिए अनुमति देता है। क्योंकि यह उच्च-रिज़ॉल्यूशन वाली छवियों और पाठ संकेतों के एक सेट के साथ ठीक-ठीक किया गया है, इसलिए मॉडल ऐसी छवियां उत्पन्न कर सकता है जो कक्षा के लिए अधिक अनुरूप हैं, जैसे कि औपचारिक शाम का गाउन। यह ध्यान रखना महत्वपूर्ण है कि वर्ग जितना अधिक विशिष्ट होगा और फाइन-ट्यूनिंग के लिए जितना अधिक डेटा उपयोग किया जाएगा, आउटपुट छवियां उतनी ही अधिक सटीक और यथार्थवादी होंगी।
%tree -d ./finetuned-stable-diffusion-v2-1-inpainting
finetuned-stable-diffusion-v2-1-inpainting
├── 512-inpainting-ema.ckpt
├── feature_extractor
├── code
│ └──inference.py
│ ├──requirements.txt
├── scheduler
├── text_encoder ├── tokenizer
├── unet
└── vae
अनुमान के लिए SageMaker का उपयोग करके एक बढ़िया-ट्यून इन-पेंटिंग मॉडल को तैनात करें
अमेज़ॅन सैजमेकर के साथ, आप रीयल-टाइम अनुमान के लिए ठीक-ठीक स्थिर प्रसार मॉडल तैनात कर सकते हैं। मॉडल को अपलोड करने के लिए अमेज़न सिंपल स्टोरेज सर्विस (S3) परिनियोजन के लिए, एक model.tar.gz आर्काइव टैरबॉल बनाया जाना चाहिए। सुनिश्चित करें कि संग्रह में सीधे सभी फाइलें शामिल हैं, न कि एक फ़ोल्डर जिसमें वे हैं। आंतरायिक चौकियों को समाप्त करने के बाद ड्रीमबुथ फाइन-ट्यूनिंग संग्रह फ़ोल्डर इस प्रकार दिखाई देना चाहिए:
हमारे अनुमान हैंडलर को बनाने के शुरुआती चरण में inference.py फ़ाइल का निर्माण शामिल है। यह फ़ाइल मॉडल को लोड करने और आने वाले सभी अनुमान अनुरोधों को संभालने के लिए केंद्रीय केंद्र के रूप में कार्य करती है। मॉडल लोड होने के बाद, model_fn() फ़ंक्शन निष्पादित किया जाता है। जब अनुमान लगाने की आवश्यकता होती है, तो predict_fn () फ़ंक्शन को कॉल किया जाता है। इसके अतिरिक्त, decode_base64() फ़ंक्शन का उपयोग पेलोड के भीतर मौजूद JSON स्ट्रिंग को PIL छवि डेटा प्रकार में बदलने के लिए किया जाता है।
%%writefile code/inference.py
import base64
import torch
from PIL import Image
from io import BytesIO
from diffusers import EulerDiscreteScheduler, StableDiffusionInpaintPipeline def decode_base64(base64_string): decoded_string = BytesIO(base64.b64decode(base64_string)) img = Image.open(decoded_string) return img def model_fn(model_dir): # Load stable diffusion and move it to the GPU scheduler = EulerDiscreteScheduler.from_pretrained(model_dir, subfolder="scheduler") pipe = StableDiffusionInpaintPipeline.from_pretrained(model_dir, scheduler=scheduler, revision="fp16", torch_dtype=torch.float16) pipe = pipe.to("cuda") pipe.enable_xformers_memory_efficient_attention() #pipe.enable_attention_slicing() return pipe def predict_fn(data, pipe): # get prompt & parameters prompt = data.pop("inputs", data) # Require json string input. Inference to convert imge to string. input_img = data.pop("input_img", data) mask_img = data.pop("mask_img", data) # set valid HP for stable diffusion num_inference_steps = data.pop("num_inference_steps", 25) guidance_scale = data.pop("guidance_scale", 6.5) num_images_per_prompt = data.pop("num_images_per_prompt", 2) image_length = data.pop("image_length", 512) # run generation with parameters generated_images = pipe( prompt, image = decode_base64(input_img), mask_image = decode_base64(mask_img), num_inference_steps=num_inference_steps, guidance_scale=guidance_scale, num_images_per_prompt=num_images_per_prompt, height=image_length, width=image_length, #)["images"] # for Stabel Diffusion v1.x ).images # create response encoded_images = [] for image in generated_images: buffered = BytesIO() image.save(buffered, format="JPEG") encoded_images.append(base64.b64encode(buffered.getvalue()).decode()) return {"generated_images": encoded_images}
मॉडल को Amazon S3 बकेट में अपलोड करने के लिए, पहले एक model.tar.gz आर्काइव बनाना आवश्यक है। यह नोट करना महत्वपूर्ण है कि संग्रह में सीधे फ़ाइलें होनी चाहिए न कि उन्हें रखने वाला फ़ोल्डर। उदाहरण के लिए, फ़ाइल इस तरह दिखनी चाहिए:
import tarfile
import os # helper to create the model.tar.gz
def compress(tar_dir=None,output_file="model.tar.gz"): parent_dir=os.getcwd() os.chdir(tar_dir) with tarfile.open(os.path.join(parent_dir, output_file), "w:gz") as tar: for item in os.listdir('.'): print(item) tar.add(item, arcname=item) os.chdir(parent_dir) compress(str(model_tar)) # After we created the model.tar.gz archive we can upload it to Amazon S3. We will # use the sagemaker SDK to upload the model to our sagemaker session bucket.
from sagemaker.s3 import S3Uploader # upload model.tar.gz to s3
s3_model_uri=S3Uploader.upload(local_path="model.tar.gz", desired_s3_uri=f"s3://{sess.default_bucket()}/finetuned-stable-diffusion-v2-1-inpainting")
मॉडल संग्रह अपलोड होने के बाद, हम वास्तविक समय के अनुमान के लिए हगिंगफेसमॉडल का उपयोग करके इसे अमेज़ॅन सैजमेकर पर तैनात कर सकते हैं। आप g4dn.xlarge उदाहरण का उपयोग करके समापन बिंदु को होस्ट कर सकते हैं, जो 4GB VRAM के साथ एकल NVIDIA Tesla T16 GPU से सुसज्जित है। अलग-अलग ट्रैफ़िक मांगों को संभालने के लिए ऑटोस्केलिंग को सक्रिय किया जा सकता है। अपने एंडपॉइंट में ऑटोस्केलिंग को शामिल करने के बारे में जानकारी के लिए, देखें उत्पादन जारी: Amazon SageMaker के साथ ऑटो-स्केलिंग हगिंग फेस ट्रांसफॉर्मर.
from sagemaker.huggingface.model import HuggingFaceModel # create Hugging Face Model Class
huggingface_model = HuggingFaceModel( model_data=s3_model_uri, # path to your model and script role=role, # iam role with permissions to create an Endpoint transformers_version="4.17", # transformers version used pytorch_version="1.10", # pytorch version used py_version='py38', # python version used
) # deploy the endpoint endpoint
predictor = huggingface_model.deploy( initial_instance_count=1, instance_type="ml.g4dn.xlarge" )
Huggingface_model.deploy() मेथड एक HuggingFacePredictor ऑब्जेक्ट लौटाता है जिसका उपयोग अनुमान का अनुरोध करने के लिए किया जा सकता है। समापन बिंदु को एक इनपुट कुंजी के साथ JSON की आवश्यकता होती है, जो एक छवि उत्पन्न करने के लिए मॉडल के लिए इनपुट संकेत का प्रतिनिधित्व करता है। आप पीढ़ी को num_inference_steps, मार्गदर्शन_स्केल, और “num_images_per_prompt” जैसे पैरामीटर के साथ भी नियंत्रित कर सकते हैं। प्रेडिक्टर.प्रेडिक्ट () फ़ंक्शन एक JSON को "जेनरेट_इमेज" कुंजी के साथ लौटाता है, जो चार उत्पन्न छवियों को बेस 64 एन्कोडेड स्ट्रिंग्स के रूप में रखता है। हमने क्रमशः प्रतिक्रिया को डिकोड करने और छवियों को प्रदर्शित करने के लिए दो सहायक कार्य, decode_base64_to_image और display_images जोड़े। पूर्व बेस 64 एन्कोडेड स्ट्रिंग को डीकोड करता है और एक PIL.Image ऑब्जेक्ट देता है, और बाद वाला PIL.Image ऑब्जेक्ट्स की एक सूची प्रदर्शित करता है। निम्नलिखित कोड देखें:
import PIL
from io import BytesIO
from IPython.display import display
import base64
import matplotlib.pyplot as plt
import json # Encoder to convert an image to json string
def encode_base64(file_name): with open(file_name, "rb") as image: image_string = base64.b64encode(bytearray(image.read())).decode() return image_string # Decode to to convert a json str to an image def decode_base64_image(base64_string): decoded_string = BytesIO(base64.b64decode(base64_string)) img = PIL.Image.open(decoded_string) return img # display PIL images as grid
def display_images(images=None,columns=3, width=100, height=100): plt.figure(figsize=(width, height)) for i, image in enumerate(images): plt.subplot(int(len(images) / columns + 1), columns, i + 1) plt.axis('off') plt.imshow(image) # Display images in a row/col grid
def image_grid(imgs, rows, cols): assert len(imgs) == rows*cols w, h = imgs[0].size grid = PIL.Image.new('RGB', size=(cols*w, rows*h)) grid_w, grid_h = grid.size for i, img in enumerate(imgs): grid.paste(img, box=(i%cols*w, i//cols*h)) return grid
चलिए इन-पेंटिंग टास्क के साथ आगे बढ़ते हैं। यह अनुमान लगाया गया है कि इनपुट छवि और CLIPSeg का उपयोग करके बनाए गए मास्क को पहले से चर्चा किए गए टेक्स्ट प्रॉम्प्ट के साथ तीन छवियों का निर्माण करने में लगभग 15 सेकंड का समय लगेगा। निम्नलिखित कोड देखें:
num_images_per_prompt = 3
prompt = "A female super-model poses in a casual long vacation skirt, with full body length, bright colors, photorealistic, high quality, highly detailed, elegant, sharp focus" # Convert image to string
input_image_filename = "./imgs/skirt-model-2.jpg"
encoded_input_image = encode_base64(input_image_filename)
encoded_mask_image = encode_base64("./imgs/skirt-model-2-mask.jpg") # Set in-painint parameters
guidance_scale = 6.7
num_inference_steps = 45 # run prediction
response = predictor.predict(data={ "inputs": prompt, "input_img": encoded_input_image, "mask_img": encoded_mask_image, "num_images_per_prompt" : num_images_per_prompt, "image_length": 768 }
) # decode images
decoded_images = [decode_base64_image(image) for image in response["generated_images"]] # visualize generation
display_images(decoded_images, columns=num_images_per_prompt, width=100, height=100) # insert initial image in the list so we can compare side by side
image = PIL.Image.open(input_image_filename).convert("RGB")
decoded_images.insert(0, image) # Display inpainting images in grid
image_grid(decoded_images, 1, num_images_per_prompt + 1)
दृश्य तुलना के लिए मूल छवि के साथ चित्रित छवियों को प्रदर्शित किया जा सकता है। इसके अतिरिक्त, इन-पेंटिंग प्रक्रिया को मार्गदर्शन_स्केल जैसे विभिन्न मापदंडों का उपयोग करके बाधित किया जा सकता है, जो इन-पेंटिंग प्रक्रिया के दौरान मार्गदर्शन छवि की ताकत को नियंत्रित करता है। यह उपयोगकर्ता को आउटपुट छवि को समायोजित करने और वांछित परिणाम प्राप्त करने की अनुमति देता है।
अमेज़न सैजमेकर जम्पस्टार्ट टेक्स्ट-टू-इमेज और अपस्केलिंग सहित विभिन्न मॉडलों के लिए स्थिर प्रसार टेम्पलेट प्रदान करता है। अधिक जानकारी के लिए, कृपया देखें सेजमेकर जम्पस्टार्ट अब स्थिर प्रसार और ब्लूम मॉडल प्रदान करता है. अतिरिक्त जम्पस्टार्ट टेम्पलेट निकट भविष्य में उपलब्ध होंगे।
सीमाओं
हालांकि CLIPSeg आमतौर पर सामान्य वस्तुओं को पहचानने में अच्छा प्रदर्शन करता है, यह अधिक सारगर्भित या व्यवस्थित कार्यों पर संघर्ष करता है जैसे कि एक छवि में वस्तुओं की संख्या की गणना करना और अधिक जटिल कार्यों पर जैसे कि यह अनुमान लगाना कि फोटो में निकटतम वस्तु जैसे हैंडबैग कितना करीब है। ज़ीरो-शॉट CLIPSeq भी बहुत बारीक वर्गीकरण पर कार्य-विशिष्ट मॉडल की तुलना में संघर्ष करता है, जैसे कि दो अस्पष्ट डिज़ाइन, पोशाक के प्रकार या शैली वर्गीकरण के बीच अंतर बताना। CLIPSeq में अभी भी उन छवियों का खराब सामान्यीकरण है जो इसके पूर्व-प्रशिक्षण डेटासेट में शामिल नहीं हैं। अंत में, यह देखा गया है कि CLIP के जीरो-शॉट क्लासिफायर शब्द या वाक्यांश के प्रति संवेदनशील हो सकते हैं और कभी-कभी अच्छा प्रदर्शन करने के लिए परीक्षण और त्रुटि "प्रॉम्प्ट इंजीनियरिंग" की आवश्यकता होती है। CLIPSeq के बैकबोन के लिए एक अलग सिमेंटिक सेगमेंटेशन मॉडल पर स्विच करना, जैसे बीट, जिसके पास ADE62.8K डेटासेट पर 20% mIOU है, संभावित रूप से परिणामों में सुधार कर सकता है।
स्टेबल डिफ्यूज़न का उपयोग करके उत्पन्न फैशन डिज़ाइन को कपड़ों के उन हिस्सों तक सीमित पाया गया है जो कम से कम अनुमानित रूप से फैशन मॉडल के व्यापक संदर्भ में रखे गए हैं, और जो उच्च-स्तरीय एम्बेडिंग के अनुरूप हैं जिन्हें आप यथोचित रूप से खोजने की उम्मीद कर सकते हैं पूर्व-प्रशिक्षित मॉडल के प्रशिक्षण के दौरान उपयोग किया जाने वाला एक हाइपरस्केल डेटासेट। जनरेटिव एआई की वास्तविक सीमा यह है कि मॉडल अंततः पूरी तरह से काल्पनिक और कम प्रामाणिक आउटपुट का उत्पादन करेगा। इसलिए, एआई द्वारा उत्पन्न फैशन डिज़ाइन मानव डिजाइनरों द्वारा बनाए गए विविध या अद्वितीय नहीं हो सकते हैं।
निष्कर्ष
जनरेटिव एआई फैशन क्षेत्र को बेहतर उपयोगकर्ता अनुभव और लागत-कुशल व्यावसायिक रणनीतियों के माध्यम से अपनी प्रथाओं को बदलने का अवसर प्रदान करता है। इस पोस्ट में, हम दिखाते हैं कि वर्चुअल मॉडलिंग का उपयोग करके फैशन डिजाइनरों और उपभोक्ताओं को व्यक्तिगत फैशन शैली बनाने में सक्षम बनाने के लिए जनरेटिव एआई का उपयोग कैसे किया जाए। मौजूदा अमेज़ॅन सैजमेकर जम्पस्टार्ट टेम्प्लेट और आने वाले लोगों की सहायता से, उपयोगकर्ता इन उन्नत तकनीकों को गहराई से तकनीकी विशेषज्ञता की आवश्यकता के बिना, बहुमुखी प्रतिभा को बनाए रखते हुए और खर्चों को कम करते हुए जल्दी से अपना सकते हैं।
यह नवीन तकनीक विभिन्न उद्योगों में सामग्री निर्माण में शामिल कंपनियों और पेशेवरों के लिए नए अवसर प्रस्तुत करती है। जनरेटिव एआई सामग्री को बढ़ाने और बनाने के लिए पर्याप्त क्षमता प्रदान करता है। जम्पस्टार्ट टेम्पलेट में हाल ही में जोड़े गए अपने सेजमेकर स्टूडियो, जैसे टेक्स्ट-टू-इमेज को फ़ाइन-ट्यूनिंग करना और अपस्केल क्षमताएं।
हम ली झांग, कार्ल अल्बर्टसन, क्रिस्टीन पियर्स, निखिल वेल्पनूर, आरोन सेंगस्टैकन, जेम्स वू और नीलम कोशिया को उनके समर्थन और मूल्यवान इनपुट के लिए धन्यवाद देना चाहते हैं जिन्होंने इस काम को बेहतर बनाने में मदद की।
लेखक के बारे में
अल्फ्रेड शेन AWS में एक वरिष्ठ AI/ML विशेषज्ञ हैं। उन्होंने सिलिकॉन वैली में स्वास्थ्य सेवा, वित्त और उच्च तकनीक सहित विभिन्न क्षेत्रों में तकनीकी और प्रबंधकीय पदों पर काम किया है। वह सीवी, एनएलपी और मल्टीमॉडलिटी पर ध्यान केंद्रित करने वाला एक समर्पित एप्लाइड एआई/एमएल शोधकर्ता है। उनके काम को ईएमएनएलपी, आईसीएलआर और पब्लिक हेल्थ जैसे प्रकाशनों में प्रदर्शित किया गया है।
डॉ विवेक मदनी Amazon SageMaker जम्पस्टार्ट टीम के साथ एक अनुप्रयुक्त वैज्ञानिक हैं। उन्होंने उरबाना-शैंपेन में इलिनोइस विश्वविद्यालय से पीएचडी प्राप्त की और जॉर्जिया टेक में पोस्ट डॉक्टरेट शोधकर्ता थे। वह मशीन लर्निंग और एल्गोरिदम डिजाइन में एक सक्रिय शोधकर्ता हैं और उन्होंने EMNLP, ICLR, COLT, FOCS और SODA सम्मेलनों में पत्र प्रकाशित किए हैं।
- एसईओ संचालित सामग्री और पीआर वितरण। आज ही प्रवर्धित हो जाओ।
- प्लेटोब्लॉकचैन। Web3 मेटावर्स इंटेलिजेंस। ज्ञान प्रवर्धित। यहां पहुंचें।
- स्रोत: https://aws.amazon.com/blogs/machine-learning/virtual-fashion-styling-with-generative-ai-using-amazon-sagemaker/
- 1
- 10
- 100
- 7
- a
- हारून
- योग्य
- About
- अमूर्त
- में तेजी लाने के
- त्वरक
- पहुँच
- सामान
- पूरा
- लेखा
- सही
- पाना
- के पार
- सक्रिय
- अनुकूलन
- जोड़ा
- अतिरिक्त
- इसके अतिरिक्त
- अतिरिक्त
- पतों
- दत्तक ग्रहण
- उन्नत
- सलाह
- बाद
- AI
- ऐ / एमएल
- कलन विधि
- एल्गोरिदम
- सब
- की अनुमति दे
- की अनुमति देता है
- पहले ही
- वीरांगना
- अमेज़न SageMaker
- अमेज़न SageMaker जम्पस्टार्ट
- राशि
- और
- परिधान
- दिखाई देते हैं
- अनुप्रयोगों
- लागू
- लागू करें
- लगभग
- स्थापत्य
- पुरालेख
- क्षेत्र
- तर्क
- कृत्रिम
- कृत्रिम बुद्धिमत्ता
- एएसए
- सहायता
- ध्यान
- ऑडियो
- विश्वसनीय
- उपलब्ध
- एडब्ल्यूएस
- आधार
- बैंडविड्थ
- बैंक
- आधार
- आधारित
- क्योंकि
- शुरू किया
- लाभदायक
- लाभ
- बेहतर
- के बीच
- बाँध
- बंधन
- खंड
- ब्लॉग
- फूल का खिलना
- नीला
- दावा
- परिवर्तन
- पिन
- बक्से
- उज्ज्वल
- उज्जवल
- बजट
- व्यापार
- व्यावसायिक अनुप्रयोग
- गणना
- बुलाया
- क्षमताओं
- सक्षम
- मामलों
- आकस्मिक
- केंद्रीय
- चुनौतियों
- संभावना
- परिवर्तन
- चुनें
- कक्षा
- वर्गीकरण
- समापन
- बंद
- कपड़ा
- बादल
- कोड
- इकट्ठा
- रंग
- स्तंभ
- कैसे
- आराम
- सामान्य
- कंपनियों
- तुलना
- तुलना
- तुलना
- पूरक हैं
- जटिल
- घटकों
- गणना
- गणना करना
- कंप्यूटिंग
- संकल्पना
- विन्यास
- जुड़ा हुआ
- स्थिर
- उपभोक्ताओं
- कंटेनरों
- शामिल हैं
- सामग्री
- सामग्री पीढ़ी
- प्रसंग
- जारी रखने के
- नियंत्रण
- नियंत्रण
- बदलना
- इसी
- लागत
- सका
- कवर
- बनाना
- बनाया
- बनाना
- निर्माण
- महत्वपूर्ण
- महत्वपूर्ण
- वर्तमान में
- रिवाज
- ग्राहक
- ग्राहक संतुष्टि
- ग्राहक
- अनुकूलन
- अनुकूलन
- तिथि
- कमी
- समर्पित
- गहरा
- ध्यान लगा के पढ़ना या सीखना
- मांग
- डेनिम
- तैनात
- तैनात
- तैनाती
- वर्णन
- वर्णित
- डिज़ाइन
- बनाया गया
- डिजाइनरों
- डिजाइन
- वांछित
- विस्तृत
- विवरण
- निर्धारित करने
- अंतर
- विभिन्न
- प्रसार
- सीधे
- चर्चा की
- डिस्प्ले
- प्रदर्शित करता है
- वितरित
- वितरण
- कई
- डोमेन
- डाउनलोड
- दर्जनों
- सहनशीलता
- दौरान
- ई - कॉमर्स
- आसानी
- प्रभावी
- कुशल
- तत्व
- नष्ट
- आलिंगन
- सक्षम
- सक्षम बनाता है
- समर्थकारी
- अंतर्गत कई
- endpoint
- इंजीनियर्स
- बढ़ाने
- सुनिश्चित
- मनोरंजन
- सुसज्जित
- त्रुटि
- अनुमानित
- शाम
- अंत में
- विकसित करना
- उदाहरण
- उदाहरण
- मौजूदा
- उम्मीद
- खर्च
- महंगा
- अनुभव
- विशेषज्ञता
- निर्यात
- उद्धरण
- कपड़ा
- कपड़े
- चेहरा
- चेहरे के
- फैशन
- और तेज
- Feature
- महिला
- कुछ
- निष्ठा
- खेत
- पट्टिका
- फ़ाइलें
- भरना
- अंतिम
- अंत में
- वित्त
- खोज
- अंत
- प्रथम
- फिट
- चमक
- लचीला
- प्रवाह
- फोकस
- पीछा किया
- निम्नलिखित
- इस प्रकार है
- औपचारिक
- पूर्व
- आगे
- पाया
- अक्सर
- से
- पूर्ण
- पूरी तरह से
- समारोह
- कार्यों
- आगे
- और भी
- भविष्य
- वस्त्र
- उत्पन्न
- उत्पन्न
- पीढ़ी
- उत्पादक
- जनरेटिव एआई
- जॉर्जिया
- मिल
- दी
- GPU
- GPUs
- ग्राफ़िक
- ग्रे
- अधिक से अधिक
- बहुत
- ग्रिड
- संभालना
- हैंडलिंग
- साज़
- होने
- स्वास्थ्य
- स्वास्थ्य सेवा
- ऊंचाई
- मदद की
- यहाँ उत्पन्न करें
- हाई
- उच्च स्तर
- उच्च संकल्प
- उच्चतर
- हाइलाइट
- अत्यधिक
- पकड़े
- रखती है
- मेजबान
- कैसे
- How To
- तथापि
- एचटीएमएल
- HTTPS
- हब
- हगिंग फ़ेस
- मानव
- विचार
- पहचानकर्ता
- पहचान करना
- इलेनॉइस
- की छवि
- छवियों
- काल्पनिक
- कार्यान्वयन
- आयात
- महत्वपूर्ण
- में सुधार
- उन्नत
- in
- में गहराई
- शामिल
- शामिल
- सहित
- आवक
- शामिल
- वृद्धि हुई
- उद्योगों
- उद्योग
- करें-
- प्रारंभिक
- अभिनव
- निवेश
- स्थापित
- उदाहरण
- बजाय
- बुद्धि
- शुरू की
- शामिल
- IT
- आइटम
- काम
- JSON
- कुंजी
- लेबल
- लेबल
- भाषा
- बड़ा
- लांच
- परत
- प्रमुख
- जानें
- सीखा
- सीख रहा हूँ
- लंबाई
- स्तर
- Li
- पुस्तकालय
- सीमा
- सीमित
- सूची
- भार
- लोड हो रहा है
- लंबा
- बंद
- कम
- लाभप्रद
- मशीन
- यंत्र अधिगम
- मुख्य
- बनाए रखना
- को बनाए रखने के
- बनाना
- निर्माण
- प्रबंधकीय
- निर्माता
- मानचित्रण
- बाजार
- विपणन (मार्केटिंग)
- मुखौटा
- मास्क
- मैच
- सामग्री
- matplotlib
- साधन
- मीडिया
- याद
- तरीका
- तरीकों
- लापता
- ML
- आदर्श
- मॉडल
- अधिक
- अधिकांश
- चाल
- आंदोलन
- विभिन्न
- नाम
- प्राकृतिक
- निकट
- आवश्यक
- आवश्यकता
- ज़रूरत
- की जरूरत है
- नेटवर्क
- तटस्थ
- नया
- NLP
- नोड्स
- साधारण
- उपन्यास
- संख्या
- Nvidia
- वस्तु
- वस्तुओं
- बाधाएं
- प्रस्ताव
- की पेशकश
- ऑफर
- ONE
- अपनी तरह का इकलौता
- ऑनलाइन
- अवसर
- अनुकूलित
- विकल्प
- आदेश
- मूल
- OS
- अपना
- बनती
- बाँधना
- कागजात
- पैरामीटर
- विशेष
- भागों
- पारित कर दिया
- पथ
- पैटर्न
- पैटर्न उपयोग करें
- पीडीएफ
- निष्पादन
- प्रदर्शन
- प्रदर्शन
- अनुमतियाँ
- स्टाफ़
- निजीकरण
- निजीकृत
- निजीकृत
- फ़ोटोरियलिस्टिक
- तस्वीरें
- पाइप
- पाइपलाइन
- मंच
- प्लेटो
- प्लेटो डेटा इंटेलिजेंस
- प्लेटोडाटा
- कृप्या अ
- गरीब
- लोकप्रिय
- बन गया है
- पदों
- पद
- संभावित
- संभावित
- व्यावहारिक
- अभ्यास
- प्रथाओं
- भविष्यवाणी करना
- की भविष्यवाणी
- भविष्यवाणी
- Predictor
- वरीयताओं
- वरीय
- प्रस्तुत
- को रोकने के
- पहले से
- पूर्व
- प्रक्रिया
- उत्पादन
- उत्पादन
- उत्पाद
- पेशेवरों
- उचित
- प्रदान करना
- प्रदान करता है
- सार्वजनिक
- सार्वजनिक स्वास्थ्य
- प्रकाशनों
- सार्वजनिक रूप से
- प्रकाशित
- विशुद्ध रूप से
- उद्देश्य
- प्रयोजनों
- अजगर
- pytorch
- गुणवत्ता
- जल्दी से
- रेंज
- वास्तविक
- वास्तविक समय
- यथार्थवादी
- प्राप्त करना
- हाल
- सिफारिशें
- लाल
- को कम करने
- घटी
- संदर्भ
- संदर्भित करता है
- प्रासंगिकता
- की सूचना दी
- का प्रतिनिधित्व करता है
- का अनुरोध
- अनुरोधों
- की आवश्यकता होती है
- की आवश्यकता होती है
- शोधकर्ता
- संकल्प
- प्रतिक्रिया
- परिणाम
- जिसके परिणामस्वरूप
- परिणाम
- खुदरा
- वापसी
- रिटर्न
- आरजीबी
- भूमिका
- लगभग
- रन
- दौड़ना
- sagemaker
- विक्रय
- संतोष
- सहेजें
- बचत
- स्केल
- वैज्ञानिक
- एसडीके
- दूसरा
- सेकंड
- सेक्टर
- सेक्टर्स
- विभाजन
- खंड
- का चयन
- वरिष्ठ
- संवेदनशील
- कार्य करता है
- सेवा
- सत्र
- सेट
- कई
- तेज़
- खोल
- कम
- चाहिए
- प्रदर्शन
- पक्ष
- सिलिकॉन
- सिलिकॉन वैली
- समान
- सरल
- केवल
- एक साथ
- एक
- आकार
- छोटा
- So
- सोशल मीडिया
- सोशल मीडिया
- समाधान
- कुछ
- कुछ
- अंतरिक्ष
- विशेष
- विशेषज्ञ
- विशेषीकृत
- विशिष्ट
- विनिर्दिष्ट
- स्थिर
- मानक
- राज्य
- कदम
- कदम
- फिर भी
- भंडारण
- संग्रहित
- रणनीतियों
- शक्ति
- धारियों
- संघर्ष
- अंदाज
- विषय
- सफलता
- ऐसा
- गर्मी
- सुपर मॉडल
- पर्यवेक्षण
- समर्थन करता है
- अनुरूप
- लेना
- लेता है
- लक्ष्य
- कार्य
- कार्य
- टीम
- तकनीक
- तकनीकी
- तकनीक
- टेक्नोलॉजी
- टेम्पलेट्स
- शर्तों
- टेस्ला
- RSI
- क्षेत्र
- दुनिया
- लेकिन हाल ही
- इसलिये
- तीन
- यहाँ
- बंधा होना
- सेवा मेरे
- उपकरण
- मशाल
- पूरी तरह से
- परंपरागत
- यातायात
- रेलगाड़ी
- प्रशिक्षित
- प्रशिक्षण
- स्थानांतरण
- बदालना
- ट्रान्सफ़ॉर्मर
- यात्रा
- रुझान
- परीक्षण
- खरब
- के अंतर्गत
- अद्वितीय
- विश्वविद्यालय
- अपलोड की गई
- प्रयोग
- उपयोग
- उपयोगकर्ता
- उपयोगकर्ताओं
- आमतौर पर
- उपयोग
- उपयोग किया
- इस्तेमाल
- उपयोग
- छुट्टी
- घाटी
- मूल्यवान
- मूल्य
- विविधता
- विभिन्न
- व्यापक
- सत्यापित
- संस्करण
- वीडियो
- वास्तविक
- W
- तरीके
- कौन कौन से
- जब
- सफेद
- कौन
- चौड़ा
- विस्तृत श्रृंखला
- व्यापक
- चौडाई
- मर्जी
- अंदर
- बिना
- शब्दों
- काम
- काम किया
- विश्व
- विश्व बैंक
- होगा
- लपेटो
- wu
- X
- आप
- आपका
- जेफिरनेट
- ज़िप