Amazon SageMaker PlatoBlockchain Data Intelligence के साथ AWS Graviton- आधारित उदाहरणों पर मशीन लर्निंग इंट्रेंस वर्कलोड चलाएं। लंबवत खोज। ऐ।

Amazon SageMaker के साथ AWS Graviton- आधारित उदाहरणों पर मशीन लर्निंग इंट्रेंस वर्कलोड चलाएं

आज, हम लॉन्च कर रहे हैं अमेज़न SageMaker पर अनुमान एडब्ल्यूएस ग्रेविटन आपको ग्रेविटॉन चिप्स से मिलने वाले मूल्य, प्रदर्शन और दक्षता लाभों का लाभ उठाने में सक्षम बनाने के लिए।

सैजमेकर में मॉडल अनुमान के लिए ग्रेविटॉन-आधारित उदाहरण उपलब्ध हैं। यह पोस्ट आपको SageMaker में x86 से Graviton-आधारित उदाहरणों में मशीन लर्निंग (ML) इंट्रेंस वर्कलोड को माइग्रेट करने और तैनात करने में मदद करती है। हम आपके SageMaker प्रशिक्षित मॉडल को Graviton-आधारित उदाहरणों में परिनियोजित करने के लिए चरण-दर-चरण मार्गदर्शिका प्रदान करते हैं, Graviton के साथ काम करते समय सर्वोत्तम प्रथाओं को शामिल करते हैं, मूल्य-प्रदर्शन लाभों पर चर्चा करते हैं, और SageMaker Graviton उदाहरण पर TensorFlow मॉडल को कैसे परिनियोजित करें, इसका डेमो प्रदान करते हैं।

ग्रेविटॉन का संक्षिप्त अवलोकन

AWS Graviton AWS द्वारा डिज़ाइन किए गए प्रोसेसर का एक परिवार है जो सर्वोत्तम मूल्य-प्रदर्शन प्रदान करता है और अपने x86 समकक्षों की तुलना में अधिक ऊर्जा कुशल है। AWS Graviton 3 प्रोसेसर Graviton प्रोसेसर परिवार में नवीनतम हैं और एमएल वर्कलोड के लिए अनुकूलित हैं, जिसमें bfloat16 के लिए समर्थन और दो बार सिंगल इंस्ट्रक्शन मल्टीपल डेटा (SIMD) बैंडविड्थ शामिल है। जब इन दो विशेषताओं को मिलाया जाता है, तो ग्रेविटॉन 3 ग्रेविटॉन 2 उदाहरणों की तुलना में तीन गुना बेहतर प्रदर्शन प्रदान कर सकता है। ग्रेविटॉन 3 भी तुलनीय प्रदर्शन के लिए 60% कम ऊर्जा का उपयोग करता है अमेज़ॅन इलास्टिक कम्प्यूट क्लाउड (अमेज़न EC2) उदाहरण। यदि आप अपने कार्बन पदचिह्न को कम करना चाहते हैं और अपने स्थिरता लक्ष्यों को प्राप्त करना चाहते हैं तो यह एक बेहतरीन विशेषता है।

समाधान अवलोकन

अपने मॉडल को ग्रेविटॉन उदाहरणों में परिनियोजित करने के लिए, आप या तो उपयोग करते हैं AWS डीप लर्निंग कंटेनर or अपने खुद के कंटेनर लाओ आर्म v8.2 आर्किटेक्चर के साथ संगत।

आपके मॉडल का x86 संचालित उदाहरणों से Graviton उदाहरणों में माइग्रेशन (या नई तैनाती) सरल है क्योंकि AWS PyTorch, TensorFlow, Scikit-learn, और XGBoost के साथ मॉडल को होस्ट करने के लिए कंटेनर प्रदान करता है, और मॉडल आर्किटेक्चर एग्नॉस्टिक हैं। फिर भी, यदि आप अपने स्वयं के पुस्तकालय लाने के इच्छुक हैं, तो आप ऐसा भी कर सकते हैं, बस यह सुनिश्चित करें कि आपका कंटेनर ऐसे वातावरण के साथ बनाया गया है जो Arm64 आर्किटेक्चर का समर्थन करता है। अधिक जानकारी के लिए देखें अपना खुद का एल्गोरिथम कंटेनर बनाना.

अपने मॉडल को परिनियोजित करने के लिए आपको तीन चरण पूरे करने होंगे:

  1. एक सेजमेकर मॉडल बनाएं: इसमें अन्य मापदंडों के अलावा, मॉडल फ़ाइल स्थान के बारे में जानकारी, परिनियोजन के लिए उपयोग किया जाने वाला कंटेनर और अनुमान स्क्रिप्ट का स्थान शामिल होगा। (यदि आपके पास एक मौजूदा मॉडल पहले से ही x86 आधारित अनुमान उदाहरण में तैनात है, तो आप इस चरण को छोड़ सकते हैं।)
  2. एक एंडपॉइंट कॉन्फ़िगरेशन बनाएँ: इसमें एंडपॉइंट के लिए आप जिस प्रकार के उदाहरण चाहते हैं, उसके बारे में जानकारी होगी (उदाहरण के लिए, Graviton7 के लिए ml.c3g.xlarge), चरण 1 में आपके द्वारा बनाए गए मॉडल का नाम, और प्रति उदाहरणों की संख्या समापन बिंदु।
  3. समापन बिंदु को चरण 2 में बनाए गए समापन बिंदु कॉन्फ़िगरेशन के साथ लॉन्च करें।

.. पूर्वापेक्षाएँ

शुरू करने से पहले, निम्नलिखित पूर्वापेक्षाओं पर विचार करें:

  1. में सूचीबद्ध के रूप में आवश्यक शर्तें पूरी करें .. पूर्वापेक्षाएँ.
  2. आपका मॉडल या तो PyTorch, TensorFlow, XGBoost, या Scikit-learn आधारित मॉडल होना चाहिए। निम्न तालिका वर्तमान में इस लेखन के रूप में समर्थित संस्करणों को सारांशित करती है। नवीनतम अपडेट के लिए, देखें SageMaker फ्रेमवर्क कंटेनर (केवल SM समर्थन).
    . अजगर TensorFlow पायटॉर्च Scikit सीखने एक्सजीबूस्ट
    संस्करणों का समर्थन किया 3.8 2.9.1 1.12.1 1.0-1 1.3-1 के लिए 1.5-1
  3. अनुमान लिपि में संग्रहीत है अमेज़न सरल भंडारण सेवा (अमेज़न S3)।

निम्नलिखित अनुभागों में, हम आपको परिनियोजन चरणों के बारे में बताते हैं।

एक सेजमेकर मॉडल बनाएं

यदि आपके पास x86-आधारित अनुमान उदाहरण में पहले से ही एक मौजूदा मॉडल तैनात है, तो आप इस चरण को छोड़ सकते हैं। अन्यथा, SageMaker मॉडल बनाने के लिए निम्न चरणों को पूरा करें:

  1. उस मॉडल का पता लगाएँ जिसे आपने S3 बकेट में संग्रहीत किया था। यूआरआई कॉपी करें।
    आप बाद में मॉडल यूआरआई का उपयोग करते हैं MODEL_S3_LOCATION.
  2. मॉडल प्रशिक्षण के दौरान उपयोग किए गए फ्रेमवर्क संस्करण और पायथन संस्करण की पहचान करें।
    आपको अपने ढांचे और पायथन संस्करण के अनुसार उपलब्ध एडब्ल्यूएस डीप लर्निंग कंटेनरों की सूची से एक कंटेनर का चयन करना होगा। अधिक जानकारी के लिए, देखें पेश है Amazon ECR के लिए मल्टी-आर्किटेक्चर कंटेनर इमेज.
  3. S3 बकेट में अनुमान पायथन स्क्रिप्ट URI का पता लगाएँ (सामान्य फ़ाइल नाम है inference.py).
    अनुमान स्क्रिप्ट URI में आवश्यक है INFERENCE_SCRIPT_S3_LOCATION.
  4. इन वेरिएबल्स के साथ, आप निम्नलिखित कमांड के साथ SageMaker API को कॉल कर सकते हैं:
    client = boto3.client("sagemaker")
    
    client.create_model(
        ModelName="Your model name",
        PrimaryContainer={
            "Image": ,
            "ModelDataUrl": ,
            "Environment": {
            "SAGEMAKER_PROGRAM": "inference.py",
            "SAGEMAKER_SUBMIT_DIRECTORY": ,
            "SAGEMAKER_CONTAINER_LOG_LEVEL": "20",
            "SAGEMAKER_REGION": 
            }
        },
        ExecutionRoleArn= 
    )

आप मल्टी-आर्किटेक्चर छवियां भी बना सकते हैं, और एक ही छवि का उपयोग कर सकते हैं लेकिन विभिन्न टैग के साथ। आप संकेत कर सकते हैं कि आपका उदाहरण किस आर्किटेक्चर पर तैनात किया जाएगा। अधिक जानकारी के लिए, देखें पेश है Amazon ECR के लिए मल्टी-आर्किटेक्चर कंटेनर इमेज.

एक समापन बिंदु कॉन्फ़िगरेशन बनाएँ

मॉडल बनाने के बाद, आपको निम्न कमांड चलाकर एक एंडपॉइंट कॉन्फ़िगरेशन बनाना होगा (ध्यान दें कि हम किस प्रकार के उदाहरण का उपयोग कर रहे हैं):

client.create_endpoint_config(
    EndpointConfigName= ,
    ProductionVariants=[
        {
         "VariantName": "v0",
         "ModelName": "Your model name",
         "InitialInstanceCount": 1,
         "InstanceType": "ml.c7g.xlarge",
        },
    ]
)

निम्न स्क्रीनशॉट SageMaker कंसोल पर समापन बिंदु कॉन्फ़िगरेशन विवरण दिखाता है।

समापन बिंदु लॉन्च करें

पिछले चरण में बनाए गए एंडपॉइंट कॉन्फ़िगरेशन के साथ, आप एंडपॉइंट को परिनियोजित कर सकते हैं:

client.create_endpoint(
    EndpointName = "",
    EndpointConfigName = ""
    )

जब तक आपका मॉडल समापन बिंदु तैनात नहीं हो जाता तब तक प्रतीक्षा करें। भविष्यवाणियों का अनुरोध उसी तरह से किया जा सकता है जैसे आप x86-आधारित उदाहरणों में तैनात अपने एंडपॉइंट्स के लिए पूर्वानुमानों का अनुरोध करते हैं।

निम्न स्क्रीनशॉट SageMaker कंसोल पर आपके समापन बिंदु को दिखाता है।

कॉन्फ़िगरेशन से SageMaker समापन बिंदु

क्या समर्थित है

SageMaker TensorFlow और PyTorch फ्रेमवर्क के लिए प्रदर्शन-अनुकूलित ग्रेविटॉन डीप कंटेनर प्रदान करता है। ये कंटेनर कंप्यूटर दृष्टि, प्राकृतिक भाषा प्रसंस्करण, अनुशंसाओं और सामान्य गहरे और विस्तृत मॉडल-आधारित अनुमान उपयोग मामलों का समर्थन करते हैं। डीप लर्निंग कंटेनर के अलावा, SageMaker शास्त्रीय ML ​​फ्रेमवर्क जैसे XGBoost और Scikit-learn के लिए कंटेनर भी प्रदान करता है। कंटेनर c6g/m6g और c7g उदाहरणों में बाइनरी संगत हैं, इसलिए एक पीढ़ी से दूसरी पीढ़ी के लिए निष्कर्ष आवेदन को माइग्रेट करना सहज है।

C6g/m6g fp16 (अर्ध-परिशुद्धता फ्लोट) का समर्थन करता है और संगत मॉडल के लिए c5 उदाहरणों की तुलना में समकक्ष या बेहतर प्रदर्शन प्रदान करता है। C7g SIMD चौड़ाई को दोगुना करके और bfloat-16 (bf16) का समर्थन करके एमएल प्रदर्शन को काफी हद तक बढ़ाता है, जो आपके मॉडल को चलाने के लिए सबसे अधिक लागत प्रभावी प्लेटफॉर्म है।

SageMaker में अन्य CPU उदाहरणों की तुलना में c6g/m6g और c7g दोनों शास्त्रीय ML ​​(उदाहरण के लिए, XGBoost) के लिए अच्छा प्रदर्शन प्रदान करते हैं। C16g पर Bfloat-7 समर्थन bf16 प्रशिक्षित या AMP (स्वचालित मिश्रित परिशुद्धता) प्रशिक्षित मॉडल की कुशल तैनाती की अनुमति देता है। Graviton पर आर्म कंप्यूट लाइब्रेरी (ACL) बैकएंड bfloat-16 कर्नेल प्रदान करता है जो मॉडल परिमाणीकरण के बिना, फास्ट मैथ मोड के माध्यम से fp32 ऑपरेटरों को भी गति प्रदान कर सकता है।

अनुशंसित सर्वोत्तम अभ्यास

ग्रेविटॉन उदाहरणों पर, प्रत्येक वीसीपीयू एक भौतिक कोर है। सामान्य सीपीयू संसाधनों (एसएमटी के विपरीत) के लिए कोई विवाद नहीं है, और वर्कलोड प्रदर्शन स्केलिंग प्रत्येक वीसीपीयू जोड़ के साथ रैखिक है। इसलिए, जब भी उपयोग के मामले की अनुमति हो तो बैच इंट्रेंस का उपयोग करने की सिफारिश की जाती है। यह प्रत्येक भौतिक कोर पर समानांतर प्रसंस्करण बैच द्वारा वीसीपीयू के कुशल उपयोग को सक्षम करेगा। यदि बैच अनुमान संभव नहीं है, तो किसी दिए गए पेलोड के लिए इष्टतम आवृत्ति आकार की आवश्यकता होती है ताकि यह सुनिश्चित किया जा सके कि ओएस थ्रेड शेड्यूलिंग ओवरहेड अतिरिक्त वीसीपीयू के साथ आने वाली गणना शक्ति से अधिक नहीं है।

TensorFlow डिफ़ॉल्ट रूप से Eigen कर्नेल के साथ आता है, और सबसे अनुकूलित अनुमान बैकएंड प्राप्त करने के लिए ACL के साथ OneDNN पर स्विच करने की अनुशंसा की जाती है। कंटेनर सेवा लॉन्च करते समय OneDNN बैकएंड और bfloat-16 फास्ट मैथ मोड को सक्षम किया जा सकता है:

docker run -p 8501:8501 --name tfserving_resnet 
--mount type=bind,source=/tmp/resnet,target=/models/resnet 
-e MODEL_NAME=resnet -e TF_ENABLE_ONEDNN_OPTS=1 
-e DNNL_DEFAULT_FPMATH_MODE=BF16 -e -t tfs:mkl_aarch64

पिछला सर्विंग कमांड दो महत्वपूर्ण कॉन्फ़िगरेशन के साथ एक मानक resnet50 मॉडल को होस्ट करता है:

-e TF_ENABLE_ONEDNN_OPTS=1
-e DNNL_DEFAULT_FPMATH_MODE=BF16

इन्हें निम्नलिखित तरीके से इंट्रेंस कंटेनर में पास किया जा सकता है:

client.create_model(
    ModelName="Your model name",
    PrimaryContainer={
    "Image": ,
    "ModelDataUrl": ,
    "Environment": {
        "SAGEMAKER_PROGRAM": "inference.py",
        "SAGEMAKER_SUBMIT_DIRECTORY": "",
        "SAGEMAKER_CONTAINER_LOG_LEVEL": "20",
        "SAGEMAKER_REGION": ,
        "TF_ENABLE_ONEDNN_OPTS": "1",
        "DNNL_DEFAULT_FPMATH_MODE": "BF16"
         }
     },
     ExecutionRoleArn='ARN for AmazonSageMaker-ExecutionRole'
)

परिनियोजन उदाहरण

इस पोस्ट में, हम आपको दिखाते हैं कि ग्रेविटॉन-संचालित सेजमेकर इंट्रेंस इंस्टेंस पर, सैजमेकर में प्रशिक्षित TensorFlow मॉडल को कैसे तैनात किया जाए।

आप या तो SageMaker नोटबुक उदाहरण में कोड नमूना चला सकते हैं, a अमेज़ॅन सैजमेकर स्टूडियो नोटबुक, या स्थानीय मोड में ज्यूपिटर नोटबुक। यदि आप स्थानीय मोड में ज्यूपिटर नोटबुक का उपयोग करते हैं तो आपको सेजमेकर निष्पादन भूमिका को पुनः प्राप्त करने की आवश्यकता है।

निम्न उदाहरण CIFAR-10 डेटासेट पर विचार करता है। आप SageMaker के उदाहरण से नोटबुक उदाहरण का अनुसरण कर सकते हैं गीथहब रेपो इस पोस्ट में उपयोग किए गए मॉडल को पुन: उत्पन्न करने के लिए। हम प्रशिक्षित मॉडल और का उपयोग करते हैं cifar10_keras_main.py अनुमान के लिए पायथन लिपि।

मॉडल को S3 बकेट में संग्रहित किया जाता है: s3://aws-ml-blog/artifacts/run-ml-inference-on-graviton-based-instances-with-amazon-sagemaker/model.tar.gz

RSI cifar10_keras_main.py स्क्रिप्ट, जिसका उपयोग अनुमान के लिए किया जा सकता है, यहाँ संग्रहीत है:s3://aws-ml-blog/artifacts/run-ml-inference-on-graviton-based-instances-with-amazon-sagemaker/script/cifar10_keras_main.py

हम उपयोग us-east-1 क्षेत्र और एक ml.c7g.xlarge Graviton-आधारित उदाहरण पर मॉडल को तैनात करें। इसके आधार पर हमारे AWS डीप लर्निंग कंटेनर का URI है 763104351884.dkr.ecr.us-east-1.amazonaws.com/tensorflow-inference-graviton:2.9.1-cpu-py38-ubuntu20.04-sagemaker

  1. निम्नलिखित कोड के साथ सेट अप करें:
    import sagemaker
    import boto3
    import datetime
    import json
    import gzip
    import os
    
    sagemaker_session = sagemaker.Session()
    bucket = sagemaker_session.default_bucket()
    role = sagemaker.get_execution_role()
    region = sagemaker_session.boto_region_name

  2. समापन बिंदु परीक्षण के लिए डेटासेट डाउनलोड करें:
    from keras.datasets import cifar10
    (x_train, y_train), (x_test, y_test) = cifar10.load_data()

  3. मॉडल और एंडपॉइंट कॉन्फ़िगरेशन बनाएं, और एंडपॉइंट तैनात करें:
    timestamp = "{:%Y-%m-%d-%H-%M-%S}".format(datetime.datetime.now())
    
    client = boto3.client("sagemaker")
    
    MODEL_NAME = f"graviton-model-{timestamp}"
    ENDPOINT_NAME = f"graviton-endpoint-{timestamp}"
    ENDPOINT_CONFIG_NAME = f"graviton-endpoint-config-{timestamp}"
    
    # create sagemaker model
    create_model_response = client.create_model(
        ModelName=MODEL_NAME,
        PrimaryContainer={
        "Image":  "763104351884.dkr.ecr.us-east-1.amazonaws.com/tensorflow-inference-graviton:2.9.1-cpu-py38-ubuntu20.04-sagemaker ",
        "ModelDataUrl":  "s3://aws-ml-blog/artifacts/run-ml-inference-on-graviton-based-instances-with-amazon-sagemaker/model.tar.gz",
        "Environment": {
            "SAGEMAKER_CONTAINER_LOG_LEVEL": "20",
            "SAGEMAKER_REGION": region
            }
        },
        ExecutionRoleArn=role
    )
    print ("create_model API response", create_model_response)

  4. वैकल्पिक रूप से, आप अपनी अनुमान स्क्रिप्ट को इसमें जोड़ सकते हैं Environment in create_model यदि आपने मूल रूप से इसे प्रशिक्षण के दौरान अपने सैजमेकर मॉडल में एक कलाकृति के रूप में नहीं जोड़ा है:
    "SAGEMAKER_PROGRAM": "inference.py",
    "SAGEMAKER_SUBMIT_DIRECTORY": ,
    		
    # create sagemaker endpoint config
    create_endpoint_config_response = client.create_endpoint_config(
        EndpointConfigName=ENDPOINT_CONFIG_NAME,
        ProductionVariants=[
            {
             "VariantName": "v0",
             "ModelName": MODEL_NAME,
             "InitialInstanceCount": 1,
             "InstanceType": "ml.c7g.xlarge" 
            },
        ]
    )
    print ("ncreate_endpoint_config API response", create_endpoint_config_response)
    
    # create sagemaker endpoint
    create_endpoint_response = client.create_endpoint(
        EndpointName = ENDPOINT_NAME,
        EndpointConfigName = ENDPOINT_CONFIG_NAME,
    )
    print ("ncreate_endpoint API response", create_endpoint_response)   
    

    तैनाती होने के लिए आपको कुछ मिनट इंतजार करना होगा।

  5. निम्नलिखित कोड के साथ समापन बिंदु स्थिति सत्यापित करें:
    describe_response = client.describe_endpoint(EndpointName=ENDPOINT_NAME)
    print(describe_response["EndpointStatus"]

    आप भी देख सकते हैं एडब्ल्यूएस प्रबंधन कंसोल यह देखने के लिए कि आपका मॉडल कब परिनियोजित किया गया है।

  6. समापन बिंदुओं को आमंत्रित करने के लिए रनटाइम वातावरण सेट करें:
    runtime = boto3.Session().client(service_name="runtime.sagemaker")

    अब हम एंडपॉइंट को इनवॉइस करने के लिए पेलोड तैयार करते हैं। हम मॉडल के प्रशिक्षण के लिए उपयोग की जाने वाली उसी प्रकार की छवियों का उपयोग करते हैं। इन्हें पिछले चरणों में डाउनलोड किया गया था।

  7. पेलोड को टेंसर्स पर कास्ट करें और सही प्रारूप सेट करें जिसकी मॉडल अपेक्षा कर रहा है। इस उदाहरण के लिए, हम केवल एक भविष्यवाणी का अनुरोध करते हैं।
    input_image = x_test[0].reshape(1,32,32,3)

    हमें मॉडल आउटपुट एक सरणी के रूप में मिलता है।

  8. यदि हम इस पर सॉफ्टमैक्स लागू करते हैं तो हम इस आउटपुट को संभावनाओं में बदल सकते हैं:
    CONTENT_TYPE = 'application/json'
    ACCEPT = 'application/json'
    PAYLOAD = json.dumps(input_image.tolist())
    
    response = runtime.invoke_endpoint(
        EndpointName=ENDPOINT_NAME, 
        ContentType=CONTENT_TYPE,
        Accept=ACCEPT,
        Body=PAYLOAD
    )
        
    print(response['Body'].read().decode())

संसाधनों को साफ करें

इस समाधान में शामिल सेवाओं पर लागत आती है। जब आप इस समाधान का उपयोग कर लें, तो निम्न संसाधनों को साफ़ करें:

client.delete_endpoint(EndpointName=ENDPOINT_NAME)
client.delete_endpoint_config(EndpointConfigName=ENDPOINT_CONFIG_NAME)
client.delete_model(ModelName=MODEL_NAME)

मूल्य-प्रदर्शन तुलना

Graviton-आधारित उदाहरण x86-आधारित उदाहरणों की तुलना में सबसे कम कीमत और सर्वोत्तम मूल्य-प्रदर्शन प्रदान करते हैं। EC2 उदाहरणों के समान, ml.c6g उदाहरणों (Graviton 2) के साथ SageMaker निष्कर्ष समापन बिंदु ml.c20 की तुलना में 5% कम कीमत की पेशकश करते हैं, और Graviton 3 ml.c7g उदाहरण ml.c15 उदाहरणों की तुलना में 6% सस्ते हैं। अधिक जानकारी के लिए, देखें अमेज़न SageMaker मूल्य निर्धारण.

निष्कर्ष

इस पोस्ट में, हमने ग्रेविटॉन-संचालित निष्कर्ष उदाहरणों में मॉडल को तैनात करने के लिए नई लॉन्च की गई सैजमेकर क्षमता का प्रदर्शन किया। हमने आपको सर्वोत्तम प्रथाओं पर मार्गदर्शन दिया और नए प्रकार के अनुमान उदाहरणों के मूल्य-प्रदर्शन लाभों पर संक्षेप में चर्चा की।

ग्रेविटॉन के बारे में अधिक जानने के लिए देखें एडब्ल्यूएस ग्रेविटॉन प्रोसेसर. आप Amazon EC2 कंसोल पर AWS Graviton-आधारित EC2 इंस्टेंसेस के साथ शुरुआत कर सकते हैं एडब्ल्यूएस ग्रेविटॉन तकनीकी गाइड. आप इस ब्लॉग पोस्ट में नमूना कोड के साथ ग्रेविटॉन पर अनुमान लगाने के लिए एक सेजमेकर मॉडल समापन बिंदु तैनात कर सकते हैं।


लेखक के बारे में

विक्टर जरामिलोविक्टर जरामिलो, पीएचडी, AWS प्रोफेशनल सर्विसेज में एक सीनियर मशीन लर्निंग इंजीनियर हैं। AWS से पहले, वह भविष्य कहनेवाला रखरखाव में एक विश्वविद्यालय के प्रोफेसर और अनुसंधान वैज्ञानिक थे। अपने खाली समय में, वह अपनी मोटरसाइकिल और DIY मोटरसाइकिल यांत्रिकी की सवारी करने का आनंद लेते हैं।

ज़मनाको अवरहमानज़मनाको अवरहमान, पीएचडी, Amazon Web Services में प्रैक्टिस मैनेजर, ML SME और मशीन लर्निंग टेक्निकल फील्ड कम्युनिटी (TFC) का सदस्य है। वह ग्राहकों को डेटा एनालिटिक्स और मशीन लर्निंग के साथ अपने डेटा से मूल्य निकालने के लिए क्लाउड की शक्ति का लाभ उठाने में मदद करता है।

सुनीता नादमपल्लीसुनीता नादमपल्ली AWS में एक सॉफ्टवेयर डेवलपमेंट मैनेजर है। वह मशीन लीनिंग, एचपीसी और मल्टीमीडिया वर्कलोड के लिए ग्रेविटॉन सॉफ्टवेयर परफॉर्मेंस ऑप्टिमाइज़ेशन का नेतृत्व करती हैं। वह आर्म एसओसी के साथ ओपन-सोर्स विकास और लागत प्रभावी सॉफ्टवेयर समाधान देने के बारे में भावुक है।

जोहाना लियूजोहाना लियू Amazon SageMaker टीम में एक सॉफ़्टवेयर डेवलपमेंट इंजीनियर है। उनका वर्तमान कार्य डेवलपर्स को मशीन लर्निंग मॉडल को कुशलतापूर्वक होस्ट करने और अनुमान प्रदर्शन में सुधार करने में मदद करने पर केंद्रित है। वह सामाजिक समस्याओं को हल करने के लिए स्थानिक डेटा विश्लेषण और एआई का उपयोग करने के बारे में भावुक है।

एलन तनुएलन तनु सेजमेकर के साथ एक वरिष्ठ उत्पाद प्रबंधक हैं, जो बड़े मॉडल अनुमान पर अग्रणी प्रयास करते हैं। उन्हें एनालिटिक्स के क्षेत्र में मशीन लर्निंग को लागू करने का शौक है। काम के बाहर, वह बाहर का आनंद लेता है।

समय टिकट:

से अधिक AWS मशीन लर्निंग