Amazon SageMaker JumpStart का उपयोग करके स्थिर प्रसार के साथ छवियों को पेंट करें

Amazon SageMaker JumpStart का उपयोग करके स्थिर प्रसार के साथ छवियों को पेंट करें

नवंबर 2022 में, हम की घोषणा कि AWS ग्राहक टेक्स्ट से इमेज जेनरेट कर सकते हैं स्थिर प्रसार मॉडल का उपयोग अमेज़न SageMaker जम्पस्टार्ट. आज, हम एक नई सुविधा शुरू करने के लिए उत्साहित हैं जो उपयोगकर्ताओं को स्थिर प्रसार मॉडल के साथ छवियों को पेंट करने में सक्षम बनाती है। इनपेंटिंग एक टेक्स्ट प्रांप्ट के आधार पर एक छवि के एक हिस्से को दूसरी छवि के साथ बदलने की प्रक्रिया को संदर्भित करता है। मूल छवि प्रदान करके, एक मुखौटा छवि जो प्रतिस्थापित किए जाने वाले हिस्से को रेखांकित करती है, और एक शाब्दिक संकेत, स्थिर प्रसार मॉडल एक नई छवि उत्पन्न कर सकता है जो पाठ्य संकेत में वर्णित वस्तु, विषय या वातावरण के साथ नकाबपोश क्षेत्र को बदल देता है।

आप खराब छवियों को पुनर्स्थापित करने या कुछ वर्गों में उपन्यास विषयों या शैलियों के साथ नई छवियां बनाने के लिए इनपेंटिंग का उपयोग कर सकते हैं। आर्किटेक्चरल डिज़ाइन के दायरे में, बिल्डिंग ब्लूप्रिंट के अधूरे या क्षतिग्रस्त क्षेत्रों की मरम्मत के लिए पेंटिंग में स्थिर प्रसार को लागू किया जा सकता है, निर्माण कर्मचारियों के लिए सटीक जानकारी प्रदान करता है। क्लिनिकल एमआरआई इमेजिंग के मामले में, रोगी के सिर को संयमित किया जाना चाहिए, जिससे डेटा हानि या कम नैदानिक ​​​​सटीकता के कारण क्रॉपिंग आर्टिफैक्ट के कारण खराब परिणाम हो सकते हैं। इमेज इनपेंटिंग प्रभावी रूप से इन उप-इष्टतम परिणामों को कम करने में मदद कर सकती है।

इस पोस्ट में, हम दो तरीकों में स्थिर प्रसार इनपेंटिंग मॉडल का उपयोग करके अनुमान लगाने और चलाने पर एक व्यापक मार्गदर्शिका प्रस्तुत करते हैं: जम्पस्टार्ट के यूजर इंटरफेस (यूआई) के माध्यम से अमेज़ॅन सैजमेकर स्टूडियो, और प्रोग्राम के माध्यम से जम्पस्टार्ट एपीआई में उपलब्ध है सेजमेकर पायथन एसडीके.

समाधान अवलोकन

निम्नलिखित चित्र इनपेंटिंग के उदाहरण हैं। मूल छवियां बाईं ओर हैं, मुखौटा छवि केंद्र में है, और मॉडल द्वारा बनाई गई चित्रित छवि दाईं ओर है। पहले उदाहरण के लिए, मॉडल को मूल छवि, एक मुखौटा छवि, और शाब्दिक संकेत "एक सफेद बिल्ली, नीली आँखें, एक स्वेटर पहने हुए, पार्क में पड़ा हुआ" के साथ-साथ नकारात्मक संकेत "खराब ढंग से खींचे गए पैर" के साथ प्रदान किया गया था। ” दूसरे उदाहरण के लिए, पाठ्य संकेत था "एक महिला मॉडल गुलाबी और नीले रंग के मिश्रण वाली एक आरामदायक लंबी पोशाक दिखाती है,"

अमेज़ॅन सेजमेकर जम्पस्टार्ट प्लेटोब्लॉकचेन डेटा इंटेलिजेंस का उपयोग करके स्थिर प्रसार के साथ छवियों को पेंट करें। लंबवत खोज. ऐ.

स्टेबल डिफ्यूजन जैसे बड़े मॉडल को चलाने के लिए कस्टम इंट्रेंस स्क्रिप्ट की आवश्यकता होती है। आपको यह सुनिश्चित करने के लिए एंड-टू-एंड टेस्ट चलाना होगा कि स्क्रिप्ट, मॉडल और वांछित उदाहरण एक साथ कुशलता से काम करते हैं। जम्पस्टार्ट उपयोग के लिए तैयार स्क्रिप्ट प्रदान करके इस प्रक्रिया को सरल बनाता है जिनका मजबूत परीक्षण किया गया है। आप इन स्क्रिप्ट को स्टूडियो UI के माध्यम से एक क्लिक के साथ या कोड की बहुत कम पंक्तियों के साथ एक्सेस कर सकते हैं जम्पस्टार्ट एपीआई.

निम्नलिखित खंड आपको स्टूडियो यूआई या जम्पस्टार्ट एपीआई का उपयोग करके मॉडल की तैनाती और अनुमान चलाने के माध्यम से मार्गदर्शन करते हैं।

ध्यान दें कि इस मॉडल का उपयोग करके, आप इससे सहमत हैं क्रिएटिवएमएल ओपन रेल++-एम लाइसेंस.

Studio UI के माध्यम से जम्पस्टार्ट तक पहुँचें

इस खंड में, हम स्टूडियो यूआई का उपयोग करके जम्पस्टार्ट मॉडल के परिनियोजन का वर्णन करते हैं। संलग्न वीडियो जम्पस्टार्ट पर पेंटिंग मॉडल में पूर्व-प्रशिक्षित स्थिर प्रसार का पता लगाने और इसे तैनात करने को प्रदर्शित करता है। मॉडल पृष्ठ मॉडल और उसके उपयोग के बारे में आवश्यक विवरण प्रदान करता है। अनुमान लगाने के लिए, हम ml.p3.2xlarge उदाहरण प्रकार का उपयोग करते हैं, जो कम-विलंबता अनुमान के लिए उचित मूल्य पर आवश्यक GPU त्वरण प्रदान करता है। SageMaker होस्टिंग आवृत्ति कॉन्फ़िगर होने के बाद, चुनें तैनाती. समापन बिंदु चालू होगा और लगभग 10 मिनट के भीतर अनुमान अनुरोधों को संभालने के लिए तैयार होगा।

जम्पस्टार्ट एक नमूना नोटबुक प्रदान करता है जो नए बनाए गए समापन बिंदु पर अनुमान लगाने में लगने वाले समय में तेजी लाने में मदद कर सकता है। स्टूडियो में नोटबुक तक पहुँचने के लिए, चुनें नोटबुक खोलें में Studio से एंडपॉइंट का इस्तेमाल करें मॉडल समापन बिंदु पृष्ठ का अनुभाग।

सेजमेकर एसडीके के साथ प्रोग्रामेटिक रूप से जम्पस्टार्ट का उपयोग करें

जम्पस्टार्ट यूआई का उपयोग करने से आप केवल कुछ ही क्लिक के साथ एक पूर्व-प्रशिक्षित मॉडल को अंतःक्रियात्मक रूप से परिनियोजित कर सकते हैं। वैकल्पिक रूप से, आप SageMaker Python SDK के भीतर एकीकृत API का उपयोग करके जम्पस्टार्ट मॉडल को प्रोग्रामेटिक रूप से नियोजित कर सकते हैं।

इस खंड में, हम जम्पस्टार्ट में एक उपयुक्त पूर्व-प्रशिक्षित मॉडल चुनते हैं, इस मॉडल को एक SageMaker समापन बिंदु पर परिनियोजित करते हैं, और सभी SageMaker Python SDK का उपयोग करके परिनियोजित समापन बिंदु पर निष्कर्ष निकालते हैं। निम्नलिखित उदाहरणों में कोड स्निपेट हैं। इस प्रदर्शन में शामिल सभी चरणों के साथ पूर्ण कोड तक पहुँचने के लिए, देखें जम्पस्टार्ट इमेज एडिटिंग का परिचय - पेंटिंग में स्थिर प्रसार उदाहरण नोटबुक।

पूर्व-प्रशिक्षित मॉडल को तैनात करें

सेजमेकर विभिन्न बिल्ड और रनटाइम कार्यों के लिए डॉकटर कंटेनरों का उपयोग करता है। जम्पस्टार्ट इसका उपयोग करता है सेजमेकर डीप लर्निंग कंटेनर (डीएलसी) जो ढांचे-विशिष्ट हैं। हम पहले किसी भी अतिरिक्त पैकेज के साथ-साथ चयनित कार्य के लिए प्रशिक्षण और अनुमान को संभालने के लिए स्क्रिप्ट प्राप्त करते हैं। फिर पूर्व-प्रशिक्षित मॉडल कलाकृतियों को अलग से लाया जाता है model_uris, जो प्लेटफॉर्म को लचीलापन प्रदान करता है। यह कई पूर्व-प्रशिक्षित मॉडलों को एकल अनुमान स्क्रिप्ट के साथ उपयोग करने की अनुमति देता है। निम्नलिखित कोड इस प्रक्रिया को दिखाता है:

model_id, model_version = "model-inpainting-stabilityai-stable-diffusion-2-inpainting-fp16", "*"
# Retrieve the inference docker container uri
deploy_image_uri = image_uris.retrieve( region=None, framework=None, # automatically inferred from model_id image_scope="inference", model_id=model_id, model_version=model_version, instance_type=inference_instance_type,
)
# Retrieve the inference script uri
deploy_source_uri = script_uris.retrieve(model_id=model_id, model_version=model_version, script_scope="inference") base_model_uri = model_uris.retrieve(model_id=model_id, model_version=model_version, model_scope="inference")

अगला, हम उन संसाधनों को a को प्रदान करते हैं सेजमेकर मॉडल उदाहरण और एक समापन बिंदु तैनात करें:

# Create the SageMaker model instance
# Create the SageMaker model instance
model = Model( image_uri=deploy_image_uri, source_dir=deploy_source_uri, model_data=base_model_uri, entry_point="inference.py", # entry point file in source_dir and present in deploy_source_uri role=aws_role, predictor_cls=Predictor, name=endpoint_name,
) # deploy the Model - note that we need to pass the Predictor class when we deploy the model through the Model class,
# in order to run inference through the SageMaker API
base_model_predictor = model.deploy( initial_instance_count=1, instance_type=inference_instance_type, predictor_cls=Predictor, endpoint_name=endpoint_name,
)

मॉडल को तैनात करने के बाद, हम इससे वास्तविक समय की भविष्यवाणी प्राप्त कर सकते हैं!

निवेश

इनपुट आधार छवि, एक मुखौटा छवि, और मुखौटा-बाहर भाग में प्रतिस्थापित किए जाने वाले विषय, वस्तु, या पर्यावरण का वर्णन करने वाला संकेत है। इन-पेंटिंग प्रभावों के लिए सही मुखौटा छवि बनाने में कई सर्वोत्तम अभ्यास शामिल हैं। एक विशिष्ट संकेत के साथ प्रारंभ करें, और वांछित परिणाम प्राप्त करने के लिए विभिन्न स्थिर प्रसार सेटिंग्स के साथ प्रयोग करने में संकोच न करें। ऐसी मास्क छवि का उपयोग करें जो उस छवि से बहुत मिलती-जुलती हो जिसे आप पेंट करना चाहते हैं। यह दृष्टिकोण इनपेंटिंग एल्गोरिदम को छवि के लापता वर्गों को पूरा करने में सहायता करता है, जिसके परिणामस्वरूप अधिक प्राकृतिक उपस्थिति होती है। उच्च-गुणवत्ता वाली छवियां आमतौर पर बेहतर परिणाम देती हैं, इसलिए सुनिश्चित करें कि आपकी आधार और मुखौटा छवियां अच्छी गुणवत्ता वाली हैं और एक-दूसरे से मिलती-जुलती हैं। इसके अतिरिक्त, विस्तार को संरक्षित करने और कलाकृतियों को कम करने के लिए एक बड़ी और चिकनी मुखौटा छवि का चयन करें।

समापन बिंदु आधार छवि और मुखौटा को कच्चे आरजीबी मान या बेस 64 एन्कोडेड छवि के रूप में स्वीकार करता है। इंट्रेंस हैंडलर इमेज के आधार पर डिकोड करता है content_type:

  • के लिए content_type = “application/json”, इनपुट पेलोड अपरिष्कृत आरजीबी वैल्यू, टेक्स्टुअल प्रॉम्प्ट और अन्य वैकल्पिक पैरामीटर के साथ एक JSON डिक्शनरी होना चाहिए
  • के लिए content_type = “application/json;jpeg”, इनपुट पेलोड एक JSON डिक्शनरी होना चाहिए जिसमें बेस 64 एन्कोडेड इमेज, एक टेक्स्टुअल प्रॉम्प्ट और अन्य वैकल्पिक पैरामीटर हों

उत्पादन

समापन बिंदु दो प्रकार के आउटपुट उत्पन्न कर सकता है: एक बेस 64-एन्कोडेड आरजीबी छवि या उत्पन्न छवियों का एक JSON शब्दकोश। आप निर्दिष्ट कर सकते हैं कि आप कौन सा आउटपुट स्वरूप सेट करके चाहते हैं accept करने के लिए शीर्ष लेख "application/json" or "application/json;jpeg" जेपीईजी छवि या बेस 64 के लिए क्रमशः।

  • के लिए accept = “application/json”, समापन बिंदु छवि के लिए RGB मानों के साथ एक JSON शब्दकोश लौटाता है
  • के लिए accept = “application/json;jpeg”, एंडपॉइंट JPEG छवि के साथ एक JSON डिक्शनरी लौटाता है, जो बेस64.b64 एन्कोडिंग के साथ एन्कोडेड बाइट है

ध्यान दें कि कच्चे आरजीबी मूल्यों के साथ पेलोड भेजने या प्राप्त करने से इनपुट पेलोड और प्रतिक्रिया आकार के लिए डिफ़ॉल्ट सीमाएं प्रभावित हो सकती हैं। इसलिए, हम सेटिंग करके बेस 64 एन्कोडेड छवि का उपयोग करने की सलाह देते हैं content_type = “application/json;jpeg” और स्वीकार करें = "आवेदन/जेसन; जेपीईजी"।

निम्नलिखित कोड एक उदाहरण अनुमान अनुरोध है:

content_type = "application/json;jpeg" with open(input_img_file_name, "rb") as f: input_img_image_bytes = f.read()
with open(input_img_mask_file_name, "rb") as f: input_img_mask_image_bytes = f.read() encoded_input_image = base64.b64encode(bytearray(input_img_image_bytes)).decode()
encoded_mask = base64.b64encode(bytearray(input_img_mask_image_bytes)).decode() payload = { "prompt": "a white cat, blue eyes, wearing a sweater, lying in park", "image": encoded_input_image, "mask_image": encoded_mask, "num_inference_steps": 50, "guidance_scale": 7.5, "seed": 0, "negative_prompt": "poorly drawn feet",
} accept = "application/json;jpeg" def query(model_predictor, payload, content_type, accept): """Query the model predictor.""" query_response = model_predictor.predict( payload, { "ContentType": content_type, "Accept": accept, }, ) return query_response query_response = query(model_predictor, json.dumps(payload).encode("utf-8"), content_type, accept)
generated_images = parse_response(query_response)

समर्थित पैरामीटर

पेंटिंग मॉडल में स्थिर प्रसार छवि निर्माण के लिए कई मापदंडों का समर्थन करता है:

  • की छवि - मूल छवि।
  • मुखौटा - एक छवि जहां छवि निर्माण के दौरान काले रंग का भाग अपरिवर्तित रहता है और सफेद भाग को बदल दिया जाता है।
  • शीघ्र - छवि निर्माण का मार्गदर्शन करने के लिए एक संकेत। यह एक स्ट्रिंग या स्ट्रिंग्स की सूची हो सकती है।
  • num_inference_steps (वैकल्पिक) - छवि निर्माण के दौरान denoising कदमों की संख्या। अधिक कदम उच्च गुणवत्ता वाली छवि की ओर ले जाते हैं। यदि निर्दिष्ट किया गया है, तो यह एक धनात्मक पूर्णांक होना चाहिए। ध्यान दें कि अधिक निष्कर्ष कदमों से प्रतिक्रिया समय लंबा हो जाएगा।
  • मार्गदर्शन_स्केल (वैकल्पिक) - एक उच्च मार्गदर्शन पैमाना छवि गुणवत्ता की कीमत पर एक छवि को संकेत से अधिक निकटता से संबंधित बनाता है। यदि निर्दिष्ट किया गया है, तो यह एक फ्लोट होना चाहिए। guidance_scale<=1 नजरअंदाज कर दिया है।
  • नकारात्मक_प्रॉम्प्ट (वैकल्पिक) - यह इस संकेत के खिलाफ छवि निर्माण का मार्गदर्शन करता है। यदि निर्दिष्ट किया गया है, तो यह एक स्ट्रिंग या स्ट्रिंग्स की सूची होनी चाहिए और इसके साथ प्रयोग किया जाना चाहिए guidance_scale. अगर guidance_scale अक्षम है, यह भी अक्षम है। इसके अलावा, अगर प्रॉम्प्ट स्ट्रिंग्स की एक सूची है, तो negative_prompt तार की एक सूची भी होनी चाहिए।
  • बीज (वैकल्पिक) - यह पुनरुत्पादन के लिए यादृच्छिक स्थिति को ठीक करता है। यदि निर्दिष्ट किया गया है, तो यह एक पूर्णांक होना चाहिए। जब भी आप एक ही बीज के साथ एक ही संकेत का उपयोग करते हैं, परिणामी छवि हमेशा एक जैसी होगी।
  • बैच_साइज़ (वैकल्पिक) - एकल फ़ॉरवर्ड पास में उत्पन्न होने वाली छवियों की संख्या। यदि एक छोटे उदाहरण का उपयोग कर रहे हैं या कई छवियां बना रहे हैं, तो कम करें batch_size एक छोटी संख्या होना (1-2)। छवियों की संख्या = संकेतों की संख्या*num_images_per_prompt.

सीमाएं और पक्षपात

भले ही स्टेबल डिफ्यूजन का इनपेंटिंग में प्रभावशाली प्रदर्शन है, यह कई सीमाओं और पूर्वाग्रहों से ग्रस्त है। इनमें शामिल हैं लेकिन इन तक सीमित नहीं हैं:

  • मॉडल सटीक चेहरे या अंग उत्पन्न नहीं कर सकता है क्योंकि प्रशिक्षण डेटा में इन सुविधाओं के साथ पर्याप्त चित्र शामिल नहीं हैं।
  • मॉडल को प्रशिक्षित किया गया था LAION-5B डेटासेट, जिसमें वयस्क सामग्री है और बिना किसी और विचार के उत्पाद के उपयोग के लिए उपयुक्त नहीं हो सकता है।
  • मॉडल गैर-अंग्रेजी भाषाओं के साथ अच्छी तरह से काम नहीं कर सकता क्योंकि मॉडल को अंग्रेजी भाषा के पाठ पर प्रशिक्षित किया गया था।
  • मॉडल छवियों के भीतर अच्छा पाठ उत्पन्न नहीं कर सकता।
  • पेंटिंग में स्थिर प्रसार आमतौर पर 256×256 या 512×512 पिक्सेल जैसे कम रिज़ॉल्यूशन वाली छवियों के साथ सबसे अच्छा काम करता है। उच्च-रिज़ॉल्यूशन छवियों (768 × 768 या उच्चतर) के साथ काम करते समय, गुणवत्ता और विवरण के वांछित स्तर को बनाए रखने के लिए विधि संघर्ष कर सकती है।
  • यद्यपि एक बीज का उपयोग पुनरुत्पादन को नियंत्रित करने में मदद कर सकता है, फिर भी इनपुट या पैरामीटर में मामूली बदलाव के साथ स्थिर प्रसार में विभिन्न परिणाम उत्पन्न हो सकते हैं। यह विशिष्ट आवश्यकताओं के लिए आउटपुट को फ़ाइन-ट्यून करना चुनौतीपूर्ण बना सकता है।
  • विधि जटिल बनावट और पैटर्न उत्पन्न करने के साथ संघर्ष कर सकती है, विशेष रूप से जब वे छवि के भीतर बड़े क्षेत्रों में फैले हों या चित्रित क्षेत्र की समग्र सुसंगतता और गुणवत्ता को बनाए रखने के लिए आवश्यक हों।

सीमाओं और पक्षपात के बारे में अधिक जानकारी के लिए देखें स्थिर प्रसार इनपेंटिंग मॉडल कार्ड.

एक संकेत के माध्यम से उत्पन्न मास्क के साथ इनपेंटिंग समाधान

CLIPSeq एक उन्नत गहन शिक्षण तकनीक है जो इनपुट छवियों से मास्क उत्पन्न करने के लिए पूर्व-प्रशिक्षित CLIP (कंट्रास्टिव लैंग्वेज-इमेज प्रीट्रेनिंग) मॉडल की शक्ति का उपयोग करती है। यह दृष्टिकोण छवि विभाजन, पेंटिंग और हेरफेर जैसे कार्यों के लिए मास्क बनाने का एक कुशल तरीका प्रदान करता है। CLIPSeq इनपुट छवि का पाठ विवरण उत्पन्न करने के लिए CLIP का उपयोग करता है। पाठ विवरण का उपयोग तब एक मुखौटा उत्पन्न करने के लिए किया जाता है जो छवि में उन पिक्सेल की पहचान करता है जो पाठ विवरण के लिए प्रासंगिक हैं। आगे की प्रक्रिया के लिए छवि के प्रासंगिक भागों को अलग करने के लिए मुखौटा का उपयोग किया जा सकता है।

इनपुट छवियों से मास्क बनाने के अन्य तरीकों की तुलना में CLIPSeq के कई फायदे हैं। सबसे पहले, यह एक अधिक कुशल विधि है, क्योंकि इसमें छवि को एक अलग छवि विभाजन एल्गोरिथम द्वारा संसाधित करने की आवश्यकता नहीं होती है। दूसरा, यह अधिक सटीक है, क्योंकि यह ऐसे मास्क उत्पन्न कर सकता है जो छवि के पाठ विवरण के साथ अधिक निकटता से संरेखित हों। तीसरा, यह अधिक बहुमुखी है, क्योंकि आप इसका उपयोग विभिन्न प्रकार की छवियों से मास्क बनाने के लिए कर सकते हैं।

हालाँकि, CLIPSeq के कुछ नुकसान भी हैं। सबसे पहले, तकनीक की विषय वस्तु के संदर्भ में सीमाएँ हो सकती हैं, क्योंकि यह पूर्व-प्रशिक्षित CLIP मॉडल पर निर्भर करती है जो विशिष्ट डोमेन या विशेषज्ञता के क्षेत्रों को शामिल नहीं कर सकती है। दूसरा, यह एक संवेदनशील तरीका हो सकता है, क्योंकि यह छवि के पाठ विवरण में त्रुटियों के प्रति संवेदनशील है।

अधिक जानकारी के लिए, देखें Amazon SageMaker का उपयोग करके जनरेटिव AI के साथ वर्चुअल फ़ैशन स्टाइलिंग.

क्लीन अप

नोटबुक चलाने के बाद, यह सुनिश्चित करने के लिए कि बिलिंग बंद हो गई है, प्रक्रिया में बनाए गए सभी संसाधनों को हटाना सुनिश्चित करें। एंडपॉइंट को साफ करने के लिए कोड संबंधित में उपलब्ध है नोटबुक.

निष्कर्ष

इस पोस्ट में, हमने दिखाया कि जम्पस्टार्ट का उपयोग करके पेंटिंग मॉडल में पूर्व-प्रशिक्षित स्थिर प्रसार को कैसे तैनात किया जाए। हमने इस पोस्ट में कोड स्निपेट दिखाया है—इस डेमो के सभी चरणों के साथ पूरा कोड जम्पस्टार्ट का परिचय - संकेत द्वारा निर्देशित छवि गुणवत्ता बढ़ाएँ उदाहरण नोटबुक। अपने आप समाधान का प्रयास करें और हमें अपनी टिप्पणियां भेजें।

मॉडल के बारे में और यह कैसे काम करता है, इसके बारे में अधिक जानने के लिए, निम्नलिखित संसाधन देखें:

जम्पस्टार्ट के बारे में अधिक जानने के लिए, निम्नलिखित पोस्ट देखें:


लेखक के बारे में

अमेज़ॅन सेजमेकर जम्पस्टार्ट प्लेटोब्लॉकचेन डेटा इंटेलिजेंस का उपयोग करके स्थिर प्रसार के साथ छवियों को पेंट करें। लंबवत खोज. ऐ.डॉ विवेक मदनी अमेज़ॅन सेजमेकर जम्पस्टार्ट टीम के साथ एक अनुप्रयुक्त वैज्ञानिक है। उन्होंने अर्बाना-शैंपेन में इलिनोइस विश्वविद्यालय से पीएचडी प्राप्त की और जॉर्जिया टेक में पोस्ट डॉक्टरेट शोधकर्ता थे। वह मशीन लर्निंग और एल्गोरिथम डिज़ाइन में एक सक्रिय शोधकर्ता हैं और उन्होंने EMNLP, ICLR, COLT, FOCS और SODA सम्मेलनों में पेपर प्रकाशित किए हैं।

अमेज़ॅन सेजमेकर जम्पस्टार्ट प्लेटोब्लॉकचेन डेटा इंटेलिजेंस का उपयोग करके स्थिर प्रसार के साथ छवियों को पेंट करें। लंबवत खोज. ऐ.अल्फ्रेड शेन AWS में एक वरिष्ठ AI/ML विशेषज्ञ हैं। वह सिलिकॉन वैली में स्वास्थ्य सेवा, वित्त और उच्च तकनीक सहित विभिन्न क्षेत्रों में तकनीकी और प्रबंधकीय पदों पर काम कर रहे हैं। वह सीवी, एनएलपी और मल्टीमॉडलिटी पर ध्यान केंद्रित करने वाला एक समर्पित एप्लाइड एआई/एमएल शोधकर्ता है। उनके काम को ईएमएनएलपी, आईसीएलआर और पब्लिक हेल्थ जैसे प्रकाशनों में प्रदर्शित किया गया है।

समय टिकट:

से अधिक AWS मशीन लर्निंग

सारणीबद्ध डेटा मॉडलिंग के लिए नया अंतर्निहित अमेज़ॅन सेजमेकर एल्गोरिदम: लाइटजीबीएम, कैटबॉस्ट, ऑटोग्लुऑन-टैबुलर और टैबट्रांसफॉर्मर

स्रोत नोड: 1541386
समय टिकट: जून 28, 2022