Verlaag de implementatiekosten van modellen met gemiddeld 50% met behulp van de nieuwste functies van Amazon SageMaker | Amazon-webservices

Verlaag de implementatiekosten van modellen met gemiddeld 50% met behulp van de nieuwste functies van Amazon SageMaker | Amazon-webservices

Terwijl organisaties modellen inzetten voor productie, zijn ze voortdurend op zoek naar manieren om de prestaties van hun basismodellen (FM's) te optimaliseren die draaien op de nieuwste versnellers, zoals AWS Inferentie en GPU's, zodat ze hun kosten kunnen verlagen en de responslatentie kunnen verlagen om eindgebruikers de beste ervaring te bieden. Sommige FM's maken echter niet volledig gebruik van de accelerators die beschikbaar zijn bij de instances waarop ze worden ingezet, wat leidt tot een inefficiรซnt gebruik van hardwarebronnen. Sommige organisaties implementeren meerdere FM's op dezelfde instantie om alle beschikbare accelerators beter te kunnen benutten, maar dit vereist een complexe infrastructuurorkestratie die tijdrovend en moeilijk te beheren is. Wanneer meerdere FM's dezelfde instantie delen, heeft elke FM zijn eigen schaalbehoeften en gebruikspatronen, waardoor het een uitdaging is om te voorspellen wanneer u instanties moet toevoegen of verwijderen. Het ene model kan bijvoorbeeld worden gebruikt om een โ€‹โ€‹gebruikerstoepassing aan te drijven waarbij het gebruik op bepaalde uren kan pieken, terwijl een ander model een consistenter gebruikspatroon kan hebben. Naast het optimaliseren van de kosten willen klanten de beste eindgebruikerservaring bieden door de latentie te verminderen. Om dit te doen, implementeren ze vaak meerdere exemplaren van een FM om tegelijkertijd verzoeken van gebruikers af te handelen. Omdat FM-uitvoer kan variรซren van een enkele zin tot meerdere alinea's, varieert de tijd die nodig is om het inferentieverzoek te voltooien aanzienlijk, wat leidt tot onvoorspelbare pieken in de latentie als de verzoeken willekeurig tussen instanties worden gerouteerd. Amazon Sage Maker ondersteunt nu nieuwe inferentiemogelijkheden waarmee u de implementatiekosten en latentie kunt verlagen.

U kunt nu op inferentiecomponenten gebaseerde eindpunten maken en machine learning-modellen (ML) implementeren op een SageMaker-eindpunt. Een inferentiecomponent (IC) vat uw ML-model samen en stelt u in staat CPU's, GPU's of AWS-neuron versnellers en schaalbeleid per model. Inferentiecomponenten bieden de volgende voordelen:

  • SageMaker zal modellen optimaal op ML-instanties plaatsen en verpakken om het gebruik te maximaliseren, wat tot kostenbesparingen leidt.
  • SageMaker schaalt elk model op en neer op basis van uw configuratie om te voldoen aan de vereisten van uw ML-toepassing.
  • SageMaker zal schalen om instanties dynamisch toe te voegen en te verwijderen om ervoor te zorgen dat er capaciteit beschikbaar is, terwijl inactieve rekenkracht tot een minimum wordt beperkt.
  • U kunt terugschalen naar nul exemplaren van een model om bronnen vrij te maken voor andere modellen. U kunt ook opgeven dat belangrijke modellen altijd geladen en klaar voor verkeer moeten blijven.

Met deze mogelijkheden kunt u de implementatiekosten van modellen gemiddeld met 50% verlagen. De kostenbesparingen zijn afhankelijk van uw werklast en verkeerspatronen. Laten we een eenvoudig voorbeeld nemen om te illustreren hoe het verpakken van meerdere modellen op รฉรฉn eindpunt het gebruik kan maximaliseren en kosten kan besparen. Stel dat u een chattoepassing heeft die toeristen helpt lokale gebruiken en best practices te begrijpen, gebouwd met behulp van twee varianten van Llama 2: de ene afgestemd op Europese bezoekers en de andere afgestemd op Amerikaanse bezoekers. We verwachten verkeer voor het Europese model tussen 00:01โ€“11:59 UTC en het Amerikaanse model tussen 12:00โ€“23:59 UTC. In plaats van deze modellen op hun eigen speciale instances te implementeren waar ze de helft van de tijd inactief blijven, kunt u ze nu op รฉรฉn eindpunt implementeren om kosten te besparen. Je kunt het Amerikaanse model terugschalen naar nul als dat niet nodig is om capaciteit vrij te maken voor het Europese model, en omgekeerd. Hierdoor kunt u uw hardware efficiรซnt gebruiken en verspilling voorkomen. Dit is een eenvoudig voorbeeld waarbij gebruik wordt gemaakt van twee modellen, maar u kunt dit idee eenvoudig uitbreiden door honderden modellen op รฉรฉn eindpunt te plaatsen, dat automatisch meegroeit met uw werklast.

In dit bericht laten we u de nieuwe mogelijkheden zien van IC-gebaseerde SageMaker-eindpunten. We begeleiden u ook bij het implementeren van meerdere modellen met behulp van inferentiecomponenten en API's. Ten slotte beschrijven we enkele van de nieuwe observatiemogelijkheden en hoe u beleid voor automatisch schalen voor uw modellen instelt en het schalen van instanties voor uw eindpunten beheert. U kunt modellen ook implementeren via onze nieuwe, vereenvoudigde, interactieve gebruikerservaring. We ondersteunen ook geavanceerde routeringsmogelijkheden om de latentie en prestaties van uw inferentieworkloads te optimaliseren.

Bouw blokken

Laten we eens dieper kijken en begrijpen hoe deze nieuwe mogelijkheden werken. Het volgende is enkele nieuwe terminologie voor SageMaker-hosting:

  • Inferentiecomponent โ€“ Een SageMaker-hostingobject dat u kunt gebruiken om een โ€‹โ€‹model op een eindpunt te implementeren. U kunt een gevolgtrekkingscomponent maken door het volgende op te geven:
    • Het SageMaker-model of de specificatie van een SageMaker-compatibele afbeelding en modelartefacten.
    • Vereisten voor rekenbronnen, die de behoeften van elk exemplaar van uw model specificeren, inclusief CPU-kernen, hostgeheugen en aantal versnellers.
  • Modelexemplaar โ€“ Een runtime-kopie van een inferentiecomponent die verzoeken kan verwerken.
  • Automatisch schalen van beheerde exemplaren โ€“ Een SageMaker-hostingmogelijkheid om het aantal rekeninstanties dat voor een eindpunt wordt gebruikt, op of af te schalen. Het schalen van instanties reageert op het schalen van gevolgtrekkingscomponenten.

Om een โ€‹โ€‹nieuwe inferentiecomponent te maken, kunt u een containerimage en een modelartefact opgeven, of u kunt SageMaker-modellen gebruiken die u mogelijk al hebt gemaakt. U moet ook de vereisten voor rekenbronnen opgeven, zoals het aantal host-CPU-kernen, hostgeheugen of het aantal accelerators dat uw model moet uitvoeren.

Verlaag de implementatiekosten van modellen met gemiddeld 50% met behulp van de nieuwste functies van Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

Wanneer u een inferentiecomponent implementeert, kunt u dit opgeven MinCopies om ervoor te zorgen dat het model al is geladen in de hoeveelheid die u nodig heeft, klaar om aan uw verzoeken te voldoen.

Verlaag de implementatiekosten van modellen met gemiddeld 50% met behulp van de nieuwste functies van Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

U hebt ook de mogelijkheid om uw beleid zo in te stellen dat kopieรซn van inferentiecomponenten naar nul worden geschaald. Als er bijvoorbeeld geen belasting op een IC draait, wordt de modelkopie verwijderd. Hierdoor kunnen bronnen vrijkomen die kunnen worden vervangen door actieve werklasten om het gebruik en de efficiรซntie van uw eindpunt te optimaliseren.

Verlaag de implementatiekosten van modellen met gemiddeld 50% met behulp van de nieuwste functies van Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

Naarmate de gevolgtrekkingsverzoeken toenemen of afnemen, kan het aantal exemplaren van uw IC's ook omhoog of omlaag worden geschaald op basis van uw beleid voor automatisch schalen. SageMaker zorgt voor de plaatsing om de verpakking van uw modellen te optimaliseren op basis van beschikbaarheid en kosten.

Verlaag de implementatiekosten van modellen met gemiddeld 50% met behulp van de nieuwste functies van Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

Als u bovendien automatisch schalen van beheerde instanties inschakelt, zal SageMaker rekeninstanties schalen op basis van het aantal inferentiecomponenten dat op een bepaald moment moet worden geladen om verkeer te bedienen. SageMaker zal de instances opschalen en uw instances en inferentiecomponenten inpakken om de kosten te optimaliseren, terwijl de modelprestaties behouden blijven. Hoewel we het gebruik van beheerde instantie-schaling aanbevelen, heeft u ook de mogelijkheid om de schaling zelf te beheren, mocht u dat willen, via automatisch schalen van toepassingen.

Verlaag de implementatiekosten van modellen met gemiddeld 50% met behulp van de nieuwste functies van Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

SageMaker zal de inferentiecomponenten opnieuw in evenwicht brengen en de instanties verkleinen als ze niet langer nodig zijn voor inferentiecomponenten, waardoor u kosten bespaart.

Verlaag de implementatiekosten van modellen met gemiddeld 50% met behulp van de nieuwste functies van Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

Overzicht van API's

SageMaker heeft een nieuwe entiteit geรฏntroduceerd genaamd de InferenceComponent. Hierdoor worden de details van het hosten van het ML-model losgekoppeld van het eindpunt zelf. De InferenceComponent Hiermee kunt u belangrijke eigenschappen opgeven voor het hosten van het model, zoals het SageMaker-model dat u wilt gebruiken of de containerdetails en modelartefacten. U geeft ook het aantal exemplaren op van de componenten zelf die moeten worden geรฏmplementeerd, en het aantal vereiste versnellers (GPU's, Inf of Trn-accelerators) of CPU (vCPU's). Dit biedt u meer flexibiliteit om รฉรฉn eindpunt te gebruiken voor een willekeurig aantal modellen dat u er in de toekomst op wilt implementeren.

Laten we eens kijken naar de Boto3 API-aanroepen om een โ€‹โ€‹eindpunt te maken met een inferentiecomponent. Houd er rekening mee dat er enkele parameters zijn die we later in dit bericht bespreken.

Het volgende is voorbeeldcode voor CreateEndpointConfig:

sagemaker_client.create_endpoint_config( EndpointConfigName=endpoint_config_name, ExecutionRoleArn=role, ProductionVariants=[{ "VariantName": variant_name, "InstanceType": instance_type, "InitialInstanceCount": initial_instance_count, "ModelDataDownloadTimeoutInSeconds": model_data_download_timeout_in_seconds, "ContainerStartupHealthCheckTimeoutInSeconds": container_startup_health_check_timeout_in_seconds, {"ManagedInstanceScaling": { "Status": "ENABLED", "MinInstanceCount": initial_instance_count, "MaxInstanceCount": max_instance_count, } }, }],
)

Het volgende is voorbeeldcode voor CreateEndpoint:

sagemaker_client.create_endpoint( EndpointName=endpoint_name, EndpointConfigName=endpoint_config_name,
)

Het volgende is voorbeeldcode voor CreateInferenceComponent:

sm_client.create_inference_component( InferenceComponentName=inference_component_name, EndpointName=endpoint_name, VariantName=variant_name, Specification={ "Container": { "Image": inference_image_uri, "ArtifactUrl": s3_code_artifact, }, "StartupParameters": { "ModelDataDownloadTimeoutInSeconds": 300, "ContainerStartupHealthCheckTimeoutInSeconds": 600, }, "ComputeResourceRequirements": {"NumberOfAcceleratorDevicesRequired": 1, "MinMemoryRequiredInMb": 1024} }, RuntimeConfig={"CopyCount": 1},
)

Deze ontkoppeling van InferenceComponent naar een eindpunt biedt flexibiliteit. U kunt meerdere modellen op dezelfde infrastructuur hosten en deze toevoegen of verwijderen als uw vereisten veranderen. Elk model kan indien nodig afzonderlijk worden bijgewerkt. Bovendien kunt u modellen schalen op basis van uw zakelijke behoeften. InferenceComponent Hiermee kunt u ook de capaciteit per model regelen. Met andere woorden: u kunt bepalen hoeveel exemplaren van elk model u wilt hosten. Dankzij deze voorspelbare schaling kunt u voldoen aan de specifieke latentievereisten voor elk model. Algemeen, InferenceComponent geeft u veel meer controle over uw gehoste modellen.

In de volgende tabel laten we een vergelijking naast elkaar zien van de aanpak op hoog niveau voor het maken en aanroepen van een eindpunt zonder InferenceComponent en InferenceComponent. Houd er rekening mee dat CreateModel() nu optioneel is voor IC-gebaseerde eindpunten.

Stap voor Op modellen gebaseerde eindpunten Op componenten gebaseerde eindpunten
1 CreรซerModel(โ€ฆ) CreateEndpointConfig(โ€ฆ)
2 CreateEndpointConfig(โ€ฆ) Eindpunt maken(โ€ฆ)
3 Eindpunt maken(โ€ฆ) CreateInferenceComponent(โ€ฆ)
4 Eindpunt aanroepen(โ€ฆ) InvokeEndpoint(InferneceComponentName=โ€™waardeโ€™โ€ฆ)

De introductie van InferenceComponent Hiermee kunt u op modelniveau schalen. Zien Duik in het automatisch schalen van instanties en IC's voor meer informatie over hoe InferenceComponent werkt met automatisch schalen.

Wanneer u het SageMaker-eindpunt aanroept, kunt u nu de nieuwe parameter opgeven InferenceComponentName om het gewenste te raken InferenceComponentName. SageMaker zorgt voor het routeren van het verzoek naar de instantie die het aangevraagde host InferenceComponentName. Zie de volgende code:

smr_client = boto3.client("sagemaker-runtime") response_model = smr_client.invoke_endpoint( InferenceComponentName=inference_component_name, EndpointName=endpoint_name, Body=payload, ContentType="application/json", )

Standaard gebruikt SageMaker willekeurige routering van de verzoeken naar de instanties die uw eindpunt ondersteunen. Als u de routering van de minst openstaande verzoeken wilt inschakelen, kunt u de routeringsstrategie instellen in de eindpuntconfiguraties RoutingConfig:

sm_client.create_endpoint_config( EndpointConfigName=endpoint_config_name, ExecutionRoleArn=role, ProductionVariants=[{ "VariantName": variant_name, "InstanceType": instance_type, "InitialInstanceCount": initial_instance_count, ... 'RoutingConfig': { 'RoutingStrategy': 'LEAST_OUTSTANDING_REQUESTS' } }],
)

Verlaag de implementatiekosten van modellen met gemiddeld 50% met behulp van de nieuwste functies van Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

Minst openstaande aanvragen routeren routes naar de specifieke instanties die meer capaciteit hebben om aanvragen te verwerken. Dit zorgt voor een meer uniforme taakverdeling en resourcegebruik.

Naast CreateInferenceComponent, zijn de volgende API's nu beschikbaar:

  • DescribeInferenceComponent
  • DeleteInferenceComponent
  • UpdateInferenceComponent
  • ListInferenceComponents

InferenceComponent-logboeken en -statistieken

InferenceComponent logboeken bevinden zich in /aws/sagemaker/InferenceComponents/<InferenceComponentName>. Alle logboeken die naar stderr en stdout in de container worden verzonden, worden naar deze logboeken verzonden Amazon Cloud Watch.

Verlaag de implementatiekosten van modellen met gemiddeld 50% met behulp van de nieuwste functies van Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

Met de introductie van op IC gebaseerde eindpunten hebt u nu de mogelijkheid om aanvullende instantiestatistieken, statistische gegevens over gevolgtrekkingscomponenten en aanroepstatistieken te bekijken.

Voor SageMaker-instanties kunt u nu de GPUReservation en CPUReservation metrische gegevens om de bronnen te zien die zijn gereserveerd voor een eindpunt op basis van de gevolgtrekkingscomponenten die u hebt geรฏmplementeerd. Deze statistieken kunnen u helpen bij het bepalen van de grootte van uw beleid voor eindpunten en automatische schaling. U kunt ook de verzamelde statistieken bekijken die zijn gekoppeld aan alle modellen die op een eindpunt zijn geรฏmplementeerd.

SageMaker geeft ook statistieken weer op het niveau van de gevolgtrekkingscomponenten, wat een gedetailleerder beeld kan geven van het gebruik van bronnen voor de gevolgtrekkingscomponenten die u hebt geรฏmplementeerd. Hierdoor kunt u een beeld krijgen van de totale benutting van hulpbronnen, zoals GPUUtilizationNormalized en GPUMemoryUtilizationNormalized voor elke inferentiecomponent die u hebt geรฏmplementeerd en die mogelijk nul of veel exemplaren bevat.

Ten slotte biedt SageMaker aanroepstatistieken, die nu aanroepen voor inferentiecomponenten aggregaat volgen (Invocations) of per exemplaar geรฏnstantieerd (InvocationsPerCopy)

Voor een uitgebreide lijst met statistieken raadpleegt u SageMaker Endpoint-aanroepstatistieken.

Automatisch schalen op modelniveau

Om het automatische schalingsgedrag dat we hebben beschreven te implementeren, definieert u bij het maken van de SageMaker-eindpuntconfiguratie en de inferentiecomponent respectievelijk het initiรซle aantal exemplaren en het initiรซle aantal modelkopieรซn. Nadat u het eindpunt en de bijbehorende IC's hebt gemaakt, moet u, om automatisch schalen op IC-niveau toe te passen, eerst het schaaldoel registreren en vervolgens het schaalbeleid aan de IC koppelen.

Bij het implementeren van het schaalbeleid gebruiken we SageMakerInferenceComponentInvocationsPerCopy, een nieuwe statistiek geรฏntroduceerd door SageMaker. Het legt het gemiddelde aantal aanroepen per modelkopie per minuut vast.

aas_client.put_scaling_policy( PolicyName=endpoint_name, PolicyType='TargetTrackingScaling', ServiceNamespace=service_namespace, ResourceId=resource_id, ScalableDimension=scalable_dimension, TargetTrackingScalingPolicyConfiguration={ "PredefinedMetricSpecification": { "PredefinedMetricType": "SageMakerInferenceComponentInvocationsPerCopy", }, "TargetValue": autoscaling_target_value, "ScaleInCooldown": 300, # default "ScaleOutCooldown": 300, # default },
)

Nadat u het schaalbeleid hebt ingesteld, maakt SageMaker twee CloudWatch-alarmen voor elk doel voor automatisch schalen: รฉรฉn om uitschalen te activeren bij een alarm gedurende 3 minuten (drie datapunten van 1 minuut) en รฉรฉn om opschalen te activeren bij een alarm gedurende 15 minuten (15 gegevenspunten van 1 minuut), zoals weergegeven in de volgende schermafbeelding. De tijd om de schaalactie te activeren is doorgaans 1 ร  2 minuten langer dan die minuten, omdat het tijd kost voordat het eindpunt de statistieken naar CloudWatch publiceert, en het ook tijd kost om AutoScaling reageren. De afkoelperiode is de hoeveelheid tijd, in seconden, nadat een in- of uitschaalactiviteit is voltooid voordat een andere uitschaalactiviteit kan starten. Als de afkoelperiode voor het uitschalen korter is dan de updatetijd van het eindpunt, heeft dit geen effect, omdat het niet mogelijk is om een โ€‹โ€‹SageMaker-eindpunt bij te werken wanneer het zich in Bijwerken statuut.

Verlaag de implementatiekosten van modellen met gemiddeld 50% met behulp van de nieuwste functies van Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

Houd er rekening mee dat u bij het instellen van automatische schaling op IC-niveau ervoor moet zorgen dat de MaxInstanceCount parameter is gelijk aan of kleiner dan het maximale aantal IC's dat dit eindpunt kan verwerken. Als uw eindpunt bijvoorbeeld is geconfigureerd om slechts รฉรฉn exemplaar in de eindpuntconfiguratie te hebben en dit exemplaar slechts maximaal vier exemplaren van het model kan hosten, dan MaxInstanceCount moet gelijk zijn aan of kleiner dan 4. U kunt echter ook de beheerde automatische schalingsmogelijkheid van SageMaker gebruiken om het aantal exemplaren automatisch te schalen op basis van het vereiste aantal modelkopieรซn om aan de behoefte aan meer rekenbronnen te voldoen. Het volgende codefragment laat zien hoe u het schalen van beheerde exemplaren instelt tijdens het maken van de eindpuntconfiguratie. Op deze manier zal SageMaker, wanneer het automatisch schalen op IC-niveau een groter aantal exemplaren vereist om de modelkopieรซn te hosten, het exemplaarnummer automatisch uitschalen om het schalen op IC-niveau succesvol te laten zijn.

sagemaker_client.create_endpoint_config( EndpointConfigName=endpoint_config_name, ExecutionRoleArn=role, ProductionVariants=[{ "VariantName": variant_name, "InstanceType": instance_type, "InitialInstanceCount": initial_instance_count, "ModelDataDownloadTimeoutInSeconds": model_data_download_timeout_in_seconds, "ContainerStartupHealthCheckTimeoutInSeconds": container_startup_health_check_timeout_in_seconds, {"ManagedInstanceScaling": { "Status": "ENABLED", "MinInstanceCount": initial_instance_count, "MaxInstanceCount": max_instance_count, } }, }],
)

U kunt meerdere beleidsregels voor automatisch schalen toepassen op hetzelfde eindpunt, wat betekent dat u het traditionele beleid voor automatisch schalen kunt toepassen op de eindpunten die zijn gemaakt met IC's en omhoog en omlaag kunt schalen op basis van de andere eindpuntstatistieken. Voor meer informatie, zie Optimaliseer uw machine learning-implementaties met automatisch schalen op Amazon SageMaker. Hoewel dit mogelijk is, raden we u toch aan het schalen van beheerde exemplaren te gebruiken in plaats van zelf het schalen te beheren.

Conclusie

In dit bericht hebben we een nieuwe functie in SageMaker-inferentie geรฏntroduceerd waarmee u het gebruik van rekeninstanties kunt maximaliseren, naar honderden modellen kunt schalen en de kosten kunt optimaliseren, terwijl u voorspelbare prestaties levert. Bovendien hebben we een overzicht van de API's gegeven en u laten zien hoe u inferentiecomponenten voor uw workloads kunt configureren en implementeren.

Wij ondersteunen ook geavanceerde routeringsmogelijkheden om de latentie en prestaties van uw inferentieworkloads te optimaliseren. SageMaker kan u helpen uw inferentieworkloads te optimaliseren voor kosten en prestaties en u granulariteit op modelniveau te bieden voor beheer. Wij hebben een aangemaakt set notitieboekjes dat laat je zien hoe je drie verschillende modellen kunt implementeren, verschillende containers kunt gebruiken en beleid voor automatisch schalen kunt toepassen in GitHub. We moedigen u aan om te beginnen met notebook 1 en vandaag nog aan de slag te gaan met de nieuwe SageMaker-hostingmogelijkheden!


Over de auteurs

Verlaag de implementatiekosten van modellen met gemiddeld 50% met behulp van de nieuwste functies van Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.James Park is oplossingsarchitect bij Amazon Web Services. Hij werkt samen met Amazon.com om technologische oplossingen op AWS te ontwerpen, bouwen en implementeren, en heeft een bijzondere interesse in AI en machine learning. In zijn vrije tijd gaat hij graag op zoek naar nieuwe culturen, nieuwe ervaringen en blijft hij op de hoogte van de nieuwste technologische trends. Je kunt hem vinden op LinkedIn.

Verlaag de implementatiekosten van modellen met gemiddeld 50% met behulp van de nieuwste functies van Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.Melanie Li, PhD, is een Senior AI/ML-specialist TAM bij AWS in Sydney, Australiรซ. Ze helpt zakelijke klanten oplossingen te bouwen met behulp van de modernste AI/ML-tools op AWS en biedt begeleiding bij het ontwerpen en implementeren van ML-oplossingen met best practices. In haar vrije tijd houdt ze ervan om de natuur te verkennen en tijd door te brengen met familie en vrienden.

Verlaag de implementatiekosten van modellen met gemiddeld 50% met behulp van de nieuwste functies van Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.Marc Karp is een ML-architect bij het Amazon SageMaker Service-team. Hij richt zich op het helpen van klanten bij het ontwerpen, implementeren en beheren van ML-workloads op schaal. In zijn vrije tijd houdt hij van reizen en nieuwe plekken ontdekken.

Alan TanAlan Tan is Senior Product Manager bij SageMaker en leidt inspanningen op het gebied van grote modelinferentie. Hij heeft een passie voor het toepassen van machine learning op het gebied van analytics. Buiten zijn werk geniet hij van het buitenleven.

Verlaag de implementatiekosten van modellen met gemiddeld 50% met behulp van de nieuwste functies van Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.Raghu Ramesha is een Senior ML Solutions Architect bij het Amazon SageMaker Service-team. Hij richt zich op het helpen van klanten bij het op grote schaal bouwen, implementeren en migreren van ML-productieworkloads naar SageMaker. Hij is gespecialiseerd in machine learning, AI en computer vision-domeinen, en heeft een masterdiploma in computerwetenschappen van UT Dallas. In zijn vrije tijd houdt hij van reizen en fotografie.

Verlaag de implementatiekosten van modellen met gemiddeld 50% met behulp van de nieuwste functies van Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.Rupinder Grewal is een Sr Ai/ML Specialist Solutions Architect bij AWS. Hij richt zich momenteel op het bedienen van modellen en MLOps op SageMaker. Voorafgaand aan deze functie heeft hij gewerkt als Machine Learning Engineer voor het bouwen en hosten van modellen. Naast zijn werk speelt hij graag tennis en fietst hij graag op bergpaden.

Verlaag de implementatiekosten van modellen met gemiddeld 50% met behulp van de nieuwste functies van Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.Dhawal Patel is een Principal Machine Learning Architect bij AWS. Hij heeft gewerkt met organisaties variรซrend van grote ondernemingen tot middelgrote startups aan problemen met betrekking tot gedistribueerde computing en kunstmatige intelligentie. Hij richt zich op Deep learning inclusief NLP en Computer Vision domeinen. Hij helpt klanten bij het bereiken van high-performance modelinferentie op SageMaker.

Verlaag de implementatiekosten van modellen met gemiddeld 50% met behulp van de nieuwste functies van Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.Saurabh Trikande is Senior Product Manager voor Amazon SageMaker Inference. Hij heeft een passie voor het werken met klanten en wordt gemotiveerd door het doel om machine learning te democratiseren. Hij richt zich op kernuitdagingen met betrekking tot het inzetten van complexe ML-applicaties, multi-tenant ML-modellen, kostenoptimalisaties en het toegankelijker maken van de inzet van deep learning-modellen. In zijn vrije tijd houdt Saurabh van wandelen, leren over innovatieve technologieรซn, TechCrunch volgen en tijd doorbrengen met zijn gezin.

Verlaag de implementatiekosten van modellen met gemiddeld 50% met behulp van de nieuwste functies van Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.Lakshmi Ramakrishnan is een hoofdingenieur bij het Amazon SageMaker Machine Learning (ML)-platformteam in AWS en levert technisch leiderschap voor het product. Hij heeft ruim negen jaar in verschillende technische functies bij Amazon gewerkt. Hij heeft een Bachelor of Engineering-graad in Informatietechnologie van het National Institute of Technology, Karnataka, India en een Master of Science-graad in Computerwetenschappen van de University of Minnesota Twin Cities.

Verlaag de implementatiekosten van modellen met gemiddeld 50% met behulp van de nieuwste functies van Amazon SageMaker | Amazon Web Services PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.David Negenda is een Senior Software Development Engineer bij het Amazon SageMaker-team en werkt momenteel aan het verbeteren van productie-machine learning-workflows en het lanceren van nieuwe inferentiefuncties. In zijn vrije tijd probeert hij zijn kinderen bij te houden.

Tijdstempel:

Meer van AWS-machine learning