Z najnovejšimi funkcijami Amazon SageMaker | znižajte stroške uvajanja modela v povprečju za 50 % Spletne storitve Amazon

Z najnovejšimi funkcijami Amazon SageMaker | znižajte stroške uvajanja modela v povprečju za 50 % Spletne storitve Amazon

Ko organizacije uvajajo modele v proizvodnjo, nenehno iščejo načine za optimizacijo delovanja svojih temeljnih modelov (FM), ki delujejo na najnovejših pospeševalnikih, kot je npr. Sklepanje AWS in grafičnih procesorjev, tako da lahko zmanjšajo svoje stroške in skrajšajo zakasnitev odziva ter tako končnim uporabnikom zagotovijo najboljšo izkušnjo. Vendar nekateri FM ne izkoristijo v celoti pospeševalnikov, ki so na voljo s primerki, na katerih so nameščeni, kar vodi do neučinkovite uporabe virov strojne opreme. Nekatere organizacije uvedejo več FM-jev v isto instanco, da bolje izkoristijo vse razpoložljive pospeševalnike, vendar to zahteva zapleteno orkestracijo infrastrukture, ki je zamudna in jo je težko upravljati. Ko si več FM-jev deli isti primerek, ima vsak FM svoje potrebe po skaliranju in vzorce uporabe, zaradi česar je težko predvideti, kdaj morate dodati ali odstraniti primerke. Na primer, en model se lahko uporablja za napajanje uporabniške aplikacije, kjer lahko uporaba v določenih urah močno naraste, medtem ko ima lahko drug model bolj dosleden vzorec uporabe. Poleg optimizacije stroškov želijo stranke zagotoviti najboljšo izkušnjo končnemu uporabniku z zmanjšanjem zakasnitve. Da bi to naredili, pogosto vzporedno namestijo več kopij FM na terenske zahteve uporabnikov. Ker se izhodi FM lahko gibljejo od enega stavka do več odstavkov, se čas, potreben za dokončanje zahteve za sklepanje, močno razlikuje, kar vodi do nepredvidljivih skokov v zakasnitvi, če so zahteve naključno usmerjene med primerki. Amazon SageMaker zdaj podpira nove zmožnosti sklepanja, ki vam pomagajo zmanjšati stroške uvajanja in zakasnitev.

Zdaj lahko ustvarite končne točke, ki temeljijo na komponentah sklepanja, in uvedete modele strojnega učenja (ML) v končno točko SageMaker. Komponenta sklepanja (IC) abstrahira vaš model ML in vam omogoča, da dodelite CPE, GPE ali AWS nevron pospeševalnike in politike skaliranja na model. Komponente sklepanja ponujajo naslednje prednosti:

  • SageMaker bo optimalno namestil in zapakiral modele na primerke ML, da bo povečal izkoristek, kar bo prihranilo stroške.
  • SageMaker bo prilagodil velikost vsakega modela navzgor in navzdol glede na vašo konfiguracijo, da bo izpolnil zahteve vaše aplikacije ML.
  • SageMaker se bo prilagajal za dinamično dodajanje in odstranjevanje primerkov, da bo zagotovil razpoložljivo zmogljivost, medtem ko bo nedejavno računanje čim manjše.
  • Model lahko zmanjšate na nič kopij, da sprostite vire za druge modele. Določite lahko tudi, da bodo pomembni modeli vedno naloženi in pripravljeni za oskrbo prometa.

S temi zmogljivostmi lahko znižate stroške uvajanja modela v povprečju za 50 %. Prihranek stroškov se bo razlikoval glede na vašo delovno obremenitev in prometne vzorce. Vzemimo preprost primer za ponazoritev, kako lahko pakiranje več modelov na eno končno točko poveča izkoristek in prihrani stroške. Recimo, da imate aplikacijo za klepet, ki turistom pomaga razumeti lokalne navade in najboljše prakse, zgrajeno z uporabo dveh različic Llame 2: ena je natančno prilagojena za evropske obiskovalce in druga je natančno prilagojena za ameriške obiskovalce. Pričakujemo promet za evropski model med 00:01–11:59 UTC in ameriški model med 12:00–23:59 UTC. Namesto da bi te modele uvedli na lastnih namenskih instancah, kjer bodo polovico časa mirovali, jih lahko zdaj uvedete na eno končno točko, da prihranite stroške. Ameriški model lahko zmanjšate na nič, ko ni potreben za sprostitev zmogljivosti za evropski model in obratno. To vam omogoča učinkovito uporabo strojne opreme in izogibanje odpadkom. To je preprost primer z uporabo dveh modelov, vendar lahko to zamisel enostavno razširite tako, da zapakirate na stotine modelov na eno samo končno točko, ki se samodejno poveča in zmanjša z vašo delovno obremenitvijo.

V tej objavi vam pokažemo nove zmožnosti končnih točk SageMaker, ki temeljijo na IC. Vodimo vas tudi skozi uvajanje več modelov z uporabo komponent sklepanja in API-jev. Nazadnje podrobno opisujemo nekatere nove zmožnosti opazovanja in kako nastaviti pravilnike o samodejnem skaliranju za vaše modele ter upravljati skaliranje primerkov za vaše končne točke. Modele lahko uvedete tudi prek naše nove poenostavljene, interaktivne uporabniške izkušnje. Podpiramo tudi napredne zmožnosti usmerjanja za optimizacijo zakasnitve in učinkovitosti vaših sklepnih delovnih obremenitev.

Gradniki

Poglejmo si globlje in razumejmo, kako te nove zmogljivosti delujejo. Sledi nekaj nove terminologije za gostovanje SageMaker:

  • Komponenta sklepanja – Objekt gostovanja SageMaker, ki ga lahko uporabite za razmestitev modela na končno točko. Komponento sklepanja lahko ustvarite tako, da podate naslednje:
    • Model SageMaker ali specifikacija slike in artefaktov modela, združljive s SageMaker.
    • Zahteve za računske vire, ki določajo potrebe vsake kopije vašega modela, vključno z jedri CPE, pomnilnikom gostitelja in številom pospeševalnikov.
  • Kopija modela – Kopija izvajalnega okolja komponente sklepanja, ki je zmožna streči zahtevam.
  • Samodejno skaliranje upravljanega primerka – Zmogljivost gostovanja SageMaker za povečanje ali zmanjšanje števila računskih primerkov, ki se uporabljajo za končno točko. Merjenje primerkov se odziva na skaliranje komponent sklepanja.

Če želite ustvariti novo komponento sklepanja, lahko podate sliko vsebnika in artefakt modela ali pa uporabite modele SageMaker, ki ste jih morda že ustvarili. Določiti morate tudi zahteve za računalniške vire, kot je število jeder gostiteljskega procesorja, pomnilnik gostitelja ali število pospeševalnikov, ki jih mora zagnati vaš model.

Reduce model deployment costs by 50% on average using the latest features of Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Ko razmestite komponento sklepanja, lahko podate MinCopies da zagotovite, da je model že naložen v količini, ki jo zahtevate, pripravljen za izpolnitev zahtev.

Reduce model deployment costs by 50% on average using the latest features of Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Imate tudi možnost, da svoje pravilnike nastavite tako, da se kopije komponente sklepanja zmanjšajo na nič. Na primer, če nimate obremenitve, ki teče proti IC, bo kopija modela razložena. To lahko sprosti vire, ki jih je mogoče nadomestiti z aktivnimi delovnimi obremenitvami za optimizacijo uporabe in učinkovitosti vaše končne točke.

Reduce model deployment costs by 50% on average using the latest features of Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Ko se zahteve za sklepanje povečajo ali zmanjšajo, se lahko število kopij vaših IC-jev poveča ali zmanjša glede na vaše pravilnike o samodejnem skaliranju. SageMaker bo skrbel za namestitev, da optimizira pakiranje vaših modelov glede na razpoložljivost in ceno.

Reduce model deployment costs by 50% on average using the latest features of Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Poleg tega, če omogočite samodejno skaliranje upravljanih primerkov, bo SageMaker prilagodil računske primerke glede na število komponent sklepanja, ki jih je treba naložiti v določenem času, da služijo prometu. SageMaker bo razširil instance in zapakiral vaše instance in komponente sklepanja, da bo optimiziral stroške in hkrati ohranil zmogljivost modela. Čeprav priporočamo uporabo upravljanega skaliranja instance, imate tudi možnost, da sami upravljate skaliranje, če se tako odločite, prek samodejnega skaliranja aplikacije.

Reduce model deployment costs by 50% on average using the latest features of Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

SageMaker bo znova uravnotežil komponente sklepanja in zmanjšal primerke, če jih komponente sklepanja ne potrebujejo več, ter prihranil vaše stroške.

Reduce model deployment costs by 50% on average using the latest features of Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Predstavitev API-jev

SageMaker je predstavil novo entiteto, imenovano InferenceComponent. To loči podrobnosti gostovanja modela ML od same končne točke. The InferenceComponent vam omogoča, da določite ključne lastnosti za gostovanje modela, kot je model SageMaker, ki ga želite uporabiti, ali podrobnosti vsebnika in artefakte modela. Določite tudi število kopij samih komponent za uvedbo in število potrebnih pospeševalnikov (GPE, Inf ali Trn) ali CPE (vCPE). To vam omogoča večjo prilagodljivost pri uporabi ene končne točke za poljubno število modelov, ki jih nameravate vanjo namestiti v prihodnosti.

Oglejmo si klice API-ja Boto3 za ustvarjanje končne točke s komponento sklepanja. Upoštevajte, da obstaja nekaj parametrov, ki jih obravnavamo kasneje v tej objavi.

Sledi primer kode za CreateEndpointConfig:

sagemaker_client.create_endpoint_config( EndpointConfigName=endpoint_config_name, ExecutionRoleArn=role, ProductionVariants=[{ "VariantName": variant_name, "InstanceType": instance_type, "InitialInstanceCount": initial_instance_count, "ModelDataDownloadTimeoutInSeconds": model_data_download_timeout_in_seconds, "ContainerStartupHealthCheckTimeoutInSeconds": container_startup_health_check_timeout_in_seconds, {"ManagedInstanceScaling": { "Status": "ENABLED", "MinInstanceCount": initial_instance_count, "MaxInstanceCount": max_instance_count, } }, }],
)

Sledi primer kode za CreateEndpoint:

sagemaker_client.create_endpoint( EndpointName=endpoint_name, EndpointConfigName=endpoint_config_name,
)

Sledi primer kode za CreateInferenceComponent:

sm_client.create_inference_component( InferenceComponentName=inference_component_name, EndpointName=endpoint_name, VariantName=variant_name, Specification={ "Container": { "Image": inference_image_uri, "ArtifactUrl": s3_code_artifact, }, "StartupParameters": { "ModelDataDownloadTimeoutInSeconds": 300, "ContainerStartupHealthCheckTimeoutInSeconds": 600, }, "ComputeResourceRequirements": {"NumberOfAcceleratorDevicesRequired": 1, "MinMemoryRequiredInMb": 1024} }, RuntimeConfig={"CopyCount": 1},
)

Ta ločitev od InferenceComponent do končne točke zagotavlja prilagodljivost. Na isti infrastrukturi lahko gostite več modelov in jih dodate ali odstranite, ko se spremenijo vaše zahteve. Vsak model je mogoče po potrebi posodobiti neodvisno. Poleg tega lahko modele prilagodite svojim poslovnim potrebam. InferenceComponent omogoča tudi nadzor nad zmogljivostjo na model. Z drugimi besedami, lahko določite, koliko kopij vsakega modela želite gostiti. To predvidljivo skaliranje vam pomaga izpolniti posebne zahteve glede zakasnitve za vsak model. Na splošno, InferenceComponent vam daje veliko več nadzora nad gostujočimi modeli.

V naslednji tabeli prikazujemo vzporedno primerjavo pristopa na visoki ravni za ustvarjanje in priklic končne točke brez InferenceComponent in InferenceComponent. Upoštevajte, da je CreateModel() zdaj neobvezen za končne točke, ki temeljijo na IC.

Korak Končne točke na podlagi modela Končne točke na podlagi sklepanja
1 Ustvarimodel(…) CreateEndpointConfig(…)
2 CreateEndpointConfig(…) Ustvari končno točko (…)
3 Ustvari končno točko (…) CreateInferenceComponent(…)
4 InvokeEndpoint(…) InvokeEndpoint(InferneceComponentName='value'…)

Uvedba InferenceComponent allows you to scale at a model level. See Delve into instance and IC auto scaling for more details on how InferenceComponent works with auto scaling.

Ko prikličete končno točko SageMaker, lahko zdaj določite nov parameter InferenceComponentName zadeti želeno InferenceComponentName. SageMaker bo obravnaval usmerjanje zahteve do instance, ki gosti zahtevano InferenceComponentName. Glej naslednjo kodo:

smr_client = boto3.client("sagemaker-runtime") response_model = smr_client.invoke_endpoint( InferenceComponentName=inference_component_name, EndpointName=endpoint_name, Body=payload, ContentType="application/json", )

SageMaker privzeto uporablja naključno usmerjanje zahtev do primerkov, ki podpirajo vašo končno točko. Če želite omogočiti usmerjanje najmanj odprtih zahtev, lahko nastavite strategijo usmerjanja v konfiguraciji končne točke RoutingConfig:

sm_client.create_endpoint_config( EndpointConfigName=endpoint_config_name, ExecutionRoleArn=role, ProductionVariants=[{ "VariantName": variant_name, "InstanceType": instance_type, "InitialInstanceCount": initial_instance_count, ... 'RoutingConfig': { 'RoutingStrategy': 'LEAST_OUTSTANDING_REQUESTS' } }],
)

Reduce model deployment costs by 50% on average using the latest features of Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Najmanj odprte zahteve usmerjajo poti do določenih primerkov, ki imajo več zmogljivosti za obdelavo zahtev. To bo zagotovilo bolj enakomerno uravnoteženje obremenitve in uporabo virov.

Poleg CreateInferenceComponent, so zdaj na voljo naslednji API-ji:

  • DescribeInferenceComponent
  • DeleteInferenceComponent
  • UpdateInferenceComponent
  • ListInferenceComponents

Dnevniki in meritve InferenceComponent

InferenceComponent logi se nahajajo v /aws/sagemaker/InferenceComponents/<InferenceComponentName>. Vsi dnevniki, poslani v stderr in stdout v vsebniku, so poslani v te dnevnike amazoncloudwatch.

Reduce model deployment costs by 50% on average using the latest features of Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Z uvedbo končnih točk, ki temeljijo na IC, imate zdaj možnost ogleda dodatnih metrik primerkov, metrik komponent sklepanja in metrik klicev.

Za primerke SageMaker lahko zdaj sledite GPUReservation in CPUReservation metrike za ogled virov, rezerviranih za končno točko na podlagi komponent sklepanja, ki ste jih razmestili. Te metrike vam lahko pomagajo določiti vašo končno točko in pravilnike o samodejnem skaliranju. Ogledate si lahko tudi združene metrike, povezane z vsemi modeli, razporejenimi na končno točko.

SageMaker razkrije tudi metrike na ravni komponente sklepanja, ki lahko prikaže bolj podroben pogled na uporabo virov za komponente sklepanja, ki ste jih razmestili. To vam omogoča, da dobite vpogled v to, koliko skupne uporabe virov, kot je npr GPUUtilizationNormalized in GPUMemoryUtilizationNormalized za vsako komponento sklepanja, ki ste jo razmestili in ima lahko nič ali veliko kopij.

Nazadnje, SageMaker zagotavlja meritve klicev, ki zdaj agregatno sledijo klicem za komponente sklepanja (Invocations) ali na primerljivo kopijo (InvocationsPerCopy)

Za izčrpen seznam meritev glejte Meritve priklica končne točke SageMaker.

Samodejno skaliranje na ravni modela

Za implementacijo vedenja samodejnega skaliranja, ki smo ga opisali, pri ustvarjanju konfiguracije končne točke SageMaker in komponente sklepanja določite začetno število primerkov oziroma začetno število kopij modela. Ko ustvarite končno točko in ustrezne IC, morate za uporabo samodejnega skaliranja na ravni IC najprej registrirati cilj skaliranja in nato povezati politiko skaliranja z IC.

Pri izvajanju politike skaliranja uporabljamo SageMakerInferenceComponentInvocationsPerCopy, ki je nova metrika, ki jo je predstavil SageMaker. Zajame povprečno število klicev na kopijo modela na minuto.

aas_client.put_scaling_policy( PolicyName=endpoint_name, PolicyType='TargetTrackingScaling', ServiceNamespace=service_namespace, ResourceId=resource_id, ScalableDimension=scalable_dimension, TargetTrackingScalingPolicyConfiguration={ "PredefinedMetricSpecification": { "PredefinedMetricType": "SageMakerInferenceComponentInvocationsPerCopy", }, "TargetValue": autoscaling_target_value, "ScaleInCooldown": 300, # default "ScaleOutCooldown": 300, # default },
)

Ko nastavite pravilnik skaliranja, SageMaker ustvari dva alarma CloudWatch za vsak cilj samodejnega skaliranja: enega za sprožitev skaliranja, če je v alarmu 3 minute (tri 1-minutne podatkovne točke), in enega za sprožitev skaliranja, če je alarm 15 minut (15 1-minutnih podatkovnih točk), kot je prikazano na naslednjem posnetku zaslona. Čas za sprožitev dejanja skaliranja je običajno 1–2 minuti daljši od teh minut, ker končna točka potrebuje čas, da objavi meritve v CloudWatch, in prav tako potrebuje čas za AutoScaling reagirati. Obdobje ohlajanja je čas v sekundah po zaključku dejavnosti povečanja ali povečanja, preden se lahko začne druga dejavnost povečanja. Če je ohlajanje po obsegu krajše od časa posodobitve končne točke, nima učinka, ker končne točke SageMaker ni mogoče posodobiti, ko je v Posodabljanje Status.

Reduce model deployment costs by 50% on average using the latest features of Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Upoštevajte, da se morate pri nastavljanju samodejnega skaliranja na ravni IC prepričati, da je MaxInstanceCount enak ali manjši od največjega števila IC-jev, ki jih ta končna točka lahko obravnava. Na primer, če je vaša končna točka konfigurirana samo za en primerek v konfiguraciji končne točke in lahko ta primerek gosti največ štiri kopije modela, potem MaxInstanceCount mora biti enako ali manjše od 4. Lahko pa uporabite tudi zmožnost upravljanega samodejnega skaliranja, ki ga nudi SageMaker, za samodejno skaliranje števila primerkov na podlagi zahtevanega števila kopij modela, da zadostite potrebi po več računalniških virih. Naslednji delček kode prikazuje, kako nastaviti skaliranje upravljanega primerka med ustvarjanjem konfiguracije končne točke. Na ta način, ko samodejno skaliranje na ravni IC zahteva večje število instanc za gostovanje kopij modela, bo SageMaker samodejno zmanjšal število instanc, da bo skaliranje na ravni IC uspešno.

sagemaker_client.create_endpoint_config( EndpointConfigName=endpoint_config_name, ExecutionRoleArn=role, ProductionVariants=[{ "VariantName": variant_name, "InstanceType": instance_type, "InitialInstanceCount": initial_instance_count, "ModelDataDownloadTimeoutInSeconds": model_data_download_timeout_in_seconds, "ContainerStartupHealthCheckTimeoutInSeconds": container_startup_health_check_timeout_in_seconds, {"ManagedInstanceScaling": { "Status": "ENABLED", "MinInstanceCount": initial_instance_count, "MaxInstanceCount": max_instance_count, } }, }],
)

Uporabite lahko več pravilnikov samodejnega skaliranja za isto končno točko, kar pomeni, da boste lahko uporabili tradicionalni pravilnik samodejnega skaliranja za končne točke, ustvarjene z IC-ji, in povečali in zmanjšali na podlagi drugih meritev končne točke. Za več informacij glejte Optimizirajte svoje uvedbe strojnega učenja s samodejnim skaliranjem na Amazon SageMaker. Vendar, čeprav je to mogoče, še vedno priporočamo uporabo skaliranja upravljane instance, namesto da sami upravljate skaliranje.

zaključek

V tej objavi smo predstavili novo funkcijo v sklepanju SageMaker, ki vam bo pomagala povečati izrabo računalniških primerkov, prilagoditi na stotine modelov in optimizirati stroške, hkrati pa zagotavljati predvidljivo delovanje. Poleg tega smo zagotovili predstavitev API-jev in vam pokazali, kako konfigurirati in uvesti komponente sklepanja za vaše delovne obremenitve.

Podpiramo tudi napredne zmogljivosti usmerjanja da optimizirate zakasnitev in zmogljivost vaših sklepnih delovnih obremenitev. SageMaker vam lahko pomaga optimizirati delovne obremenitve sklepanja glede stroškov in zmogljivosti ter vam zagotovi razdrobljenost na ravni modela za upravljanje. Ustvarili smo a komplet zvezkov ki vam bo pokazal, kako razmestiti tri različne modele z uporabo različnih vsebnikov in uporabo politik samodejnega skaliranja v GitHubu. Spodbujamo vas, da začnete z prenosnim računalnikom 1 in se še danes lotite novih zmogljivosti gostovanja SageMaker!


O avtorjih

Reduce model deployment costs by 50% on average using the latest features of Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.James Park je arhitekt rešitev pri Amazon Web Services. Sodeluje z Amazon.com pri oblikovanju, gradnji in uvajanju tehnoloških rešitev na AWS, posebej pa ga zanimata umetna inteligenca in strojno učenje. V prostem času uživa v iskanju novih kultur, novih izkušenj in spremljanju najnovejših tehnoloških trendov. Najdete ga na LinkedIn.

Reduce model deployment costs by 50% on average using the latest features of Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Melanie Li, PhD, je višji strokovnjak za AI/ML TAM pri AWS s sedežem v Sydneyju v Avstraliji. Pomaga poslovnim strankam zgraditi rešitve z uporabo najsodobnejših orodij AI/ML na AWS in zagotavlja smernice za arhitekturo in implementacijo rešitev ML z najboljšimi praksami. V prostem času rada raziskuje naravo in preživlja čas z družino in prijatelji.

Reduce model deployment costs by 50% on average using the latest features of Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Marc Karp je arhitekt ML pri ekipi Amazon SageMaker Service. Osredotoča se na pomoč strankam pri načrtovanju, uvajanju in upravljanju delovnih obremenitev ML v velikem obsegu. V prostem času rad potuje in raziskuje nove kraje.

Alan TanAlan Tan je višji produktni vodja pri podjetju SageMaker, ki vodi prizadevanja za sklepanje velikih modelov. Navdušen je nad uporabo strojnega učenja na področju analitike. Izven dela uživa na prostem.

Reduce model deployment costs by 50% on average using the latest features of Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Raghu Ramesha je višji arhitekt rešitev ML pri ekipi storitve Amazon SageMaker. Osredotoča se na pomoč strankam pri izgradnji, uvajanju in selitvi proizvodnih delovnih obremenitev ML na SageMaker v velikem obsegu. Specializiran je za področje strojnega učenja, umetne inteligence in računalniškega vida ter ima magisterij iz računalništva na UT Dallas. V prostem času rada potuje in fotografira.

Reduce model deployment costs by 50% on average using the latest features of Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Rupinder Grewal je Sr Ai/ML Specialist Solutions Architect pri AWS. Trenutno se osredotoča na streženje modelov in MLO na SageMakerju. Pred to vlogo je delal kot inženir strojnega učenja za gradnjo in gostovanje modelov. Izven službe rad igra tenis in kolesari po gorskih poteh.

Reduce model deployment costs by 50% on average using the latest features of Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Dhawal Patel je glavni arhitekt strojnega učenja pri AWS. Sodeloval je z organizacijami, od velikih podjetij do srednje velikih zagonskih podjetij, pri problemih, povezanih s porazdeljenim računalništvom in umetno inteligenco. Osredotoča se na poglobljeno učenje, vključno s področja NLP in računalniškega vida. Strankam pomaga doseči visoko zmogljivo sklepanje o modelih na SageMakerju.

Reduce model deployment costs by 50% on average using the latest features of Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Saurabh Trikande je višji produktni vodja za Amazon SageMaker Inference. Navdušen je nad delom s strankami in ga motivira cilj demokratizacije strojnega učenja. Osredotoča se na ključne izzive, povezane z uvajanjem kompleksnih aplikacij ML, modelov ML z več najemniki, optimizacijo stroškov in zagotavljanjem dostopnosti uvajanja modelov globokega učenja. V prostem času Saurabh uživa v pohodništvu, spoznavanju inovativnih tehnologij, spremlja TechCrunch in preživlja čas s svojo družino.

Reduce model deployment costs by 50% on average using the latest features of Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Lakshmi Ramakrishnan je glavni inženir v skupini za platformo Amazon SageMaker Machine Learning (ML) v AWS in zagotavlja tehnično vodstvo za izdelek. Več kot 9 let je delal v več inženirskih vlogah v Amazonu. Diplomiral je iz informacijske tehnologije na Nacionalnem inštitutu za tehnologijo v Karnataki v Indiji in magistriral iz računalništva na Univerzi v Minnesoti Twin Cities.

Reduce model deployment costs by 50% on average using the latest features of Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.David Nigenda je višji inženir za razvoj programske opreme v ekipi Amazon SageMaker, ki trenutno dela na izboljšanju delovnih tokov produkcijskega strojnega učenja in uvaja nove funkcije sklepanja. V prostem času poskuša biti v koraku s svojimi otroki.

Časovni žig:

Več od Strojno učenje AWS