Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services

Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services

Amazon SageMaker er en fuldt administreret tjeneste, der gør det muligt for udviklere og datavidenskabsfolk hurtigt og nemt at bygge, træne og implementere maskinlæringsmodeller (ML) i stor skala. SageMaker gør det nemt at implementere modeller i produktionen direkte gennem API-kald til tjenesten. Modeller er pakket i containere til robuste og skalerbare implementeringer.

SageMaker tilbyder en række muligheder for at implementere modeller. Disse muligheder varierer i mængden af ​​kontrol, du har, og det arbejde, der er nødvendigt i din ende. Det AWS SDK giver dig mest kontrol og fleksibilitet. Det er en lav-niveau API tilgængelig til Java, C++, Go, JavaScript, Node.js, PHP, Ruby og Python. Det SageMaker Python SDK er et Python API på højt niveau, der abstraherer nogle af trinene og konfigurationen og gør det nemmere at implementere modeller. AWS kommandolinjegrænseflade (AWS CLI) er et andet værktøj på højt niveau, som du kan bruge til interaktivt at arbejde med SageMaker for at implementere modeller uden at skrive din egen kode.

Vi lancerer to nye muligheder, der yderligere forenkler processen med at pakke og implementere modeller ved hjælp af SageMaker. En måde er til programmatisk implementering. Til det tilbyder vi forbedringer i Python SDK. For mere information, se Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 1: PySDK-forbedringer. Den anden måde er interaktiv implementering. Til det lancerer vi en ny interaktiv oplevelse i Amazon SageMaker Studio. Det vil hjælpe dig med hurtigt at implementere dine egne trænede eller grundlæggende modeller (FM'er) fra Amazon SageMaker JumpStart med optimeret konfiguration og opnå forudsigelig ydeevne til den laveste pris. Læs videre for at se, hvordan den nye interaktive oplevelse ser ud.

Ny interaktiv oplevelse i SageMaker Studio

Dette indlæg forudsætter, at du har trænet en eller flere ML-modeller eller bruger FM'er fra SageMaker JumpStart-modelhubben og er klar til at implementere dem. Træning af en model ved hjælp af SageMaker er ikke en forudsætning for at implementere model ved hjælp af SageMaker. En vis fortrolighed med SageMaker Studio forudsættes også.

Vi guider dig igennem, hvordan du gør følgende:

  • Opret en SageMaker-model
  • Implementer en SageMaker-model
  • Implementer en SageMaker JumpStart large language model (LLM)
  • Implementer flere modeller bag ét slutpunkt
  • Test model inferens
  • Fejlfinding af fejl

Opret en SageMaker-model

Det første trin i opsætningen af ​​et SageMaker-slutpunkt til inferens er at oprette et SageMaker-modelobjekt. Dette modelobjekt består af to ting: en beholder til modellen og den trænede model, der vil blive brugt til at konkludere. Den nye interaktive UI-oplevelse gør SageMaker-modeloprettelsesprocessen ligetil. Hvis du er ny i SageMaker Studio, skal du se Udviklervejledning at komme i gang.

  1. Vælg i SageMaker Studio-grænsefladen Modeller i navigationsruden.
  2. Deployerbare modeller fanebladet, vælg Opret.

Nu skal du blot angive modelbeholderdetaljerne, placeringen af ​​dine modeldata og en AWS identitets- og adgangsstyring (IAM) rolle for SageMaker at påtage sig på dine vegne.

Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

  1. Til modelbeholderen kan du bruge et af de forudbyggede SageMaker Docker-billeder, som det giver til populære rammer og biblioteker. Hvis du vælger at bruge denne mulighed, skal du vælge en containerramme, en tilsvarende rammeversion og en hardwaretype fra listen over understøttede typer.
    Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Alternativt kan du angive en sti til din egen container gemt i Amazon Elastic Container Registry (Amazon ECR).

Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

  1. Upload derefter dine modelartefakter. SageMaker Studio giver to måder at uploade modelartefakter på:
    • Først kan du angive en model.tar.gz enten i en Amazon Simple Storage Service (Amazon S3) spand eller i din lokale sti. Det her model.tar.gz skal være struktureret i et format, der er kompatibelt med den container, du bruger.
    • Alternativt understøtter det upload af rå artefakter til PyTorch- og XGBoost-modeller. For disse to rammer skal du angive modelartefakter i det format, containeren forventer. For PyTorch ville dette for eksempel være en model.pth. Bemærk, at dine modelartefakter også inkluderer et slutningsscript til forbehandling og efterbehandling. Hvis du ikke angiver et inferensscript, implementeres standardinferensbehandlerne for den container, du har valgt.
  2. Når du har valgt din beholder og artefakt, skal du angive en IAM-rolle.
  3. Vælg Opret en implementeringsmodel at skabe en SageMaker-model.
    Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

De foregående trin viser den enkleste arbejdsgang. Du kan yderligere tilpasse modeloprettelsesprocessen. For eksempel kan du angive VPC-detaljer og aktivere netværksisolering for at sikre, at containeren ikke kan foretage udgående opkald på det offentlige internet. Du kan udvide Avancerede indstillinger afsnittet for at se flere muligheder.

Du kan få vejledning om hardwaren for det bedste pris/ydelsesforhold for at implementere dit slutpunkt ved at køre et SageMaker Inference Recommender-benchmarkingjob. For yderligere at tilpasse SageMaker-modellen kan du indsætte alle tunbare miljøvariabler på containerniveau. Inference Recommender vil også tage en række af disse variabler for at finde den optimale konfiguration til din modelservering og container.

Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Når du har oprettet din model, kan du se den på Deployerbare modeller fanen. Hvis der blev fundet et problem i modeloprettelsen, vil du se status i Overvåg status kolonne. Vælg modellens navn for at se detaljerne.

Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Implementer en SageMaker-model

I det mest grundlæggende scenarie er alt hvad du skal gøre at vælge en deployerbar model fra Modeller side eller en LLM fra SageMaker JumpStart-siden, vælg en forekomsttype, indstil det indledende antal forekomster og implementer modellen. Lad os se, hvordan denne proces ser ud i SageMaker Studio til din egen SageMaker-model. Vi diskuterer brug af LLM'er senere i dette indlæg.

  1. Modeller side, vælg den Deployerbare modeller fane.
  2. Vælg den model, der skal implementeres, og vælg Implementer.
    Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.
  3. Det næste trin er at vælge en instanstype, som SageMaker vil placere bag inferensslutpunktet.

Du vil have en instans, der leverer den bedste ydeevne til den laveste pris. SageMaker gør det nemt for dig at træffe denne beslutning ved at vise anbefalinger. Hvis du havde benchmarket din model ved hjælp af SageMaker Inference Recommender under oprettelse af SageMaker-modellen, vil du se anbefalingerne fra det benchmark i rullemenuen.

Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Ellers vil du se en liste over potentielle forekomster i menuen. SageMaker bruger sin egen heuristik til at udfylde listen i så fald.

Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

  1. Angiv det indledende antal forekomster, og vælg derefter Implementer.

SageMaker vil oprette en slutpunktskonfiguration og implementere din model bag dette slutpunkt. Når modellen er implementeret, vil du se slutpunktet og modelstatus som I drift. Bemærk, at endepunktet kan være klar før modellen.

Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Dette er også stedet i SageMaker Studio, hvor du skal administrere endepunktet. Du kan navigere til siden med slutpunktsdetaljer ved at vælge Endpoints under implementeringer i navigationsruden. Brug Tilføj model , Slette knapper for at ændre modellerne bag endepunktet uden at skulle genskabe et endepunkt. Det Test slutning fanen giver dig mulighed for at teste din model ved at sende testanmodninger til en af ​​de ibrugsatte modeller direkte fra SageMaker Studio-grænsefladen. Du kan også redigere politikken for automatisk skalering på Automatisk skalering fanen på denne side. Flere detaljer om tilføjelse, fjernelse og test af modeller er dækket i de følgende afsnit. Du kan se netværks-, sikkerheds- og beregningsoplysningerne for dette slutpunkt på Indstillinger fane.

Tilpas implementeringen

Det foregående eksempel viste, hvor ligetil det er at implementere en enkelt model med et minimumskrav til konfiguration fra din side. SageMaker udfylder de fleste af felterne for dig, men du kan tilpasse konfigurationen. For eksempel genererer den automatisk et navn til slutpunktet. Du kan dog navngive slutpunktet efter dine præferencer eller bruge et eksisterende slutpunkt på Endpoint navn Drop down menu. For eksisterende endepunkter vil du kun se de endepunkter, der er i drift på det tidspunkt. Du kan bruge Avancerede indstillinger sektion for at angive en IAM-rolle, VPC-detaljer og tags.

Implementer en SageMaker JumpStart LLM

For at implementere en SageMaker JumpStart LLM skal du udføre følgende trin:

  1. Naviger til Forspring side i SageMaker Studio.
  2. Vælg et af partnernavnene for at gennemse listen over tilgængelige modeller fra denne partner, eller brug søgefunktionen for at komme til modelsiden, hvis du kender navnet på modellen.
  3. Vælg den model, du vil implementere.
    Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.
  4. Vælg Implementer.
    Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Bemærk, at brugen af ​​LLM'er er underlagt EULA og udbyderens vilkår og betingelser.

  1. Accepter licensen og vilkårene.
  2. Angiv en instanstype.

Mange modeller fra JumpStart-modelhubben leveres med en pris-ydelsesoptimeret standardinstanstype til implementering. For modeller, der ikke kommer med denne standard, vil du blive forsynet med en liste over understøttede forekomsttyper på Forekomsttype Drop down menu. For benchmarkede modeller, hvis du ønsker at optimere implementeringen specifikt for enten omkostninger eller ydeevne for at imødekomme din specifikke brugssituation, kan du vælge Alternative konfigurationer for at se flere muligheder, der er blevet benchmarket med forskellige kombinationer af samlede tokens, inputlængde og maksimal samtidighed. Du kan også vælge mellem andre understøttede forekomster for den pågældende model.

Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

  1. Hvis du bruger en alternativ konfiguration, skal du vælge din instans og vælge Type.
    Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.
  2. Vælg Implementer at implementere modellen.

Du vil se slutpunktet og modelstatus ændres til I drift. Du har også muligheder for at tilpasse implementeringen til at opfylde dine krav i dette tilfælde.

Implementer flere modeller bag ét slutpunkt

SageMaker giver dig mulighed for at implementere flere modeller bag et enkelt slutpunkt. Dette reducerer hostingomkostningerne ved at forbedre endpoint-udnyttelsen sammenlignet med at bruge endpoints med kun én model bag sig. Det reducerer også implementeringsomkostningerne, fordi SageMaker administrerer indlæsning af modeller i hukommelsen og skalerer dem baseret på trafikmønstrene til dit slutpunkt. SageMaker Studio gør det nu ligetil at gøre dette.

  1. Kom i gang ved at vælge de modeller, du vil implementere, og vælg derefter Implementer.
    Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.
  2. Derefter kan du oprette et slutpunkt med flere modeller, der har en tildelt mængde beregning, som du definerer.

I dette tilfælde bruger vi en ml.p4d.24xlarge instans til slutpunktet og allokerer det nødvendige antal ressourcer til vores to forskellige modeller. Bemærk, at dit slutpunkt er begrænset til de instanstyper, der understøttes af denne funktion.

Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

  1. Hvis du starter flowet fra Deployerbare modeller fanen og ønsker at tilføje en SageMaker JumpStart LLM, eller omvendt, kan du gøre det til et slutpunkt, der fronter flere modeller ved at vælge Tilføj model efter start af implementeringsarbejdsgangen.
    Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.
  2. Her kan du vælge en anden FM fra SageMaker JumpStart model hub eller en model ved hjælp af Deployerbare modeller option, som refererer til modeller, som du har gemt som SageMaker-modelobjekter.
  3. Vælg dine modelindstillinger:
    • Hvis modellen bruger en CPU-instans, skal du vælge antallet af CPU'er og minimumsantallet af kopier for modellen.
    • Hvis modellen bruger en GPU-instans, skal du vælge antallet af acceleratorer og minimumsantallet af kopier for modellen.
  4. Vælg Tilføj model.
    Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.
  5. Vælg Implementer at implementere disse modeller til et SageMaker-slutpunkt.
    Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Når endepunktet er oppe og klar (I drift status), vil du have to modeller installeret bag et enkelt slutpunkt.

Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Test model inferens

SageMaker Studio gør det nu ligetil at teste modelslutningsanmodninger. Du kan sende nyttelastdataene direkte ved hjælp af den understøttede indholdstype, såsom applikation eller JSON, tekst eller CSV, eller bruge Python SDK-eksempelkode til at lave en anmodning fra dit programmeringsmiljø som en notebook eller lokalt integreret udviklingsmiljø (IDE).

Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Bemærk, at Python SDK-eksempelkodeindstillingen kun er tilgængelig for SageMaker JumpStart-modeller, og den er skræddersyet til den specifikke modelbrugstilfælde med input/outputdatatransformation.

Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Fejlfinding af fejl

For at hjælpe med at fejlfinde og se dybere ind i modelimplementering er der værktøjstip på ressourcen Status etiket for at vise tilsvarende fejl- og årsagsmeddelelser. Der er også links til amazoncloudwatch loggrupper på siden med slutpunktsdetaljer. For enkelt-model slutpunkter er linket til CloudWatch container logs bekvemt placeret i Resumé afsnittet i slutpunktsdetaljerne. For endepunkter med flere modeller er links til CloudWatch-loggene placeret på hver række af Modeller bordvisning. Følgende er nogle almindelige fejlscenarier til fejlfinding:

  • Fejl ved modelping-sundhedstjek – Modelimplementeringen kunne mislykkes, fordi serveringsbeholderen ikke bestod modelping-sundhedstjekket. For at fejlfinde problemet skal du se følgende containerlogfiler udgivet af CloudWatch-loggrupperne:
    /aws/sagemaker/Endpoints/[EndpointName]
    /aws/sagemaker/InferenceComponents/[InferenceComponentName]

  • Inkonsekvent model- og slutpunktskonfiguration forårsagede implementeringsfejl – Hvis implementeringen mislykkedes af en af ​​følgende fejlmeddelelser, betyder det, at den valgte model til implementering brugte en anden IAM-rolle, VPC-konfiguration eller netværksisolationskonfiguration. Afhjælpningen er at opdatere modeldetaljerne for at bruge den samme IAM-rolle, VPC-konfiguration og netværksisoleringskonfiguration under implementeringsforløbet. Hvis du tilføjer en model til et eksisterende slutpunkt, kan du genskabe modelobjektet, så det matcher målendepunktskonfigurationerne.
    Model and endpoint config have different execution roles. Please ensure the execution roles are consistent.
    Model and endpoint config have different VPC configurations. Please ensure the VPC configurations are consistent.
    Model and endpoint config have different network isolation configurations. Please ensure the network isolation configurations are consistent.

  • Ikke nok kapacitet til at implementere flere modeller på den eksisterende endpoint-infrastruktur – Hvis implementeringen mislykkedes med følgende fejlmeddelelse, betyder det, at den aktuelle slutpunktsinfrastruktur ikke har nok computer- eller hukommelseshardwareressourcer til at implementere modellen. Afhjælpningen er at øge det maksimale antal forekomster på slutpunktet eller slette eventuelle eksisterende modeller, der er implementeret på slutpunktet for at gøre plads til nye modelimplementeringer.
    There is not enough hardware resources on the instances for this endpoint to create a copy of the inference component. Please update resource requirements for this inference component, remove existing inference components, or increase the number of instances for this endpoint.

  • Ikke-understøttet instanstype til implementering af flere endpoint-modeller – Hvis implementeringen mislykkedes med følgende fejlmeddelelse, betyder det, at den valgte forekomsttype i øjeblikket ikke understøttes for slutpunktsimplementeringen med flere modeller. Afhjælpningen er at ændre instanstypen til en instans der understøtter denne funktion og prøve implementeringen igen.
    The instance type is not supported for multiple models endpoint. Please choose a different instance type.

For andre modelimplementeringsproblemer henvises til Understøttede funktioner.

Ryd op

Oprydning er også ligetil. Du kan fjerne en eller flere modeller fra dit eksisterende SageMaker-slutpunkt ved at vælge den specifikke model på SageMaker-konsollen. For at slette hele slutpunktet skal du navigere til Endpoints side, vælg det ønskede slutpunkt, vælg Slette, og accepter ansvarsfraskrivelsen for at fortsætte med sletningen.

Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai. Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Konklusion

Den forbedrede interaktive oplevelse i SageMaker Studio giver datavidenskabsfolk mulighed for at fokusere på modelbygning og bringe deres artefakter til SageMaker, mens de abstraherer kompleksiteten af ​​implementeringen. For dem, der foretrækker en kodebaseret tilgang, så tjek lavkodeækvivalenten med ModelBuilder klasse.

Besøg SageMaker for at lære mere ModelBuilder Python-grænseflade dokumentation og de guidede implementere arbejdsgange i SageMaker Studio. Der er ingen ekstra omkostninger for SageMaker SDK og SageMaker Studio. Du betaler kun for de underliggende ressourcer, der bruges. For mere information om, hvordan du implementerer modeller med SageMaker, se Implementer modeller til slutninger.

Særlig tak til Sirisha Upadhyayala, Melanie Li, Dhawal Patel, Sam Edwards og Kumara Swami Borra.


Om forfatterne

Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.Raghu Ramesha er senior ML Solutions Architect hos Amazon SageMaker Service-teamet. Han fokuserer på at hjælpe kunder med at opbygge, implementere og migrere ML-produktionsarbejdsbelastninger til SageMaker i stor skala. Han har specialiseret sig i maskinlæring, kunstig intelligens og computersyn og har en mastergrad i datalogi fra UT Dallas. I sin fritid nyder han at rejse og fotografere.

Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.Deepak Garg er Solutions Architect hos AWS. Han elsker at dykke dybt ned i AWS-tjenester og dele sin viden med kunderne. Deepak har baggrund i Content Delivery Networks og Telecommunications

Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.Ram Vegiraju er en ML-arkitekt hos Amazon SageMaker Service-teamet. Han fokuserer på at hjælpe kunder med at bygge og optimere deres AI/ML-løsninger på Amazon SageMaker. I sin fritid elsker han at rejse og skrive.

Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.Marc Karp er en ML-arkitekt hos Amazon SageMaker Service-teamet. Han fokuserer på at hjælpe kunder med at designe, implementere og administrere ML-arbejdsbelastninger i stor skala. I sin fritid nyder han at rejse og udforske nye steder.

Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.Shiva Raaj Kotini arbejder som Principal Product Manager i Amazon SageMaker Inference-produktporteføljen. Han fokuserer på modelimplementering, præstationsjustering og optimering i SageMaker til slutninger.

Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.Alwin (Qiyun) Zhao er senior softwareudviklingsingeniør hos Amazon SageMaker Inference Platform-teamet. Han er den ledende udvikler af udrulningsværn og skyggeimplementeringer, og han fokuserer på at hjælpe kunder med at administrere ML-arbejdsbelastninger og -implementeringer i stor skala med høj tilgængelighed. Han arbejder også på udvikling af platformsarkitektur for hurtig og sikker implementering af ML-job og afvikling af ML-onlineeksperimenter med lethed. I sin fritid nyder han at læse, spille og rejse.

Pak og implementer nemt klassiske ML og LLM'er med Amazon SageMaker, del 2: Interaktive brugeroplevelser i SageMaker Studio | Amazon Web Services PlatoBlockchain Data Intelligence. Lodret søgning. Ai.Gaurav Bhanderi er en Front End-ingeniør med AI-platformsteam i SageMaker. Han arbejder på at levere kundevendte UI-løsninger inden for AWS org. I sin fritid nyder han at vandre og udforske lokale restauranter.

Tidsstempel:

Mere fra AWS maskinindlæring