Amazon SageMaker är en helt hanterad tjänst som gör det möjligt för utvecklare och datavetare att snabbt och enkelt bygga, träna och distribuera modeller för maskininlärning (ML) i alla skala. SageMaker gör det enkelt att distribuera modeller i produktion direkt genom API-anrop till tjänsten. Modeller är förpackade i behållare för robusta och skalbara distributioner. Även om det ger olika ingångspunkter som SageMaker Python SDK, AWS SDK, SageMaker-konsolen och Amazon SageMaker Studio bärbara datorer för att förenkla processen att träna och distribuera ML-modeller i stor skala, letar kunder fortfarande efter bättre sätt att distribuera sina modeller för lekplatstestning och för att optimera produktionsinstallationer.
Vi lanserar två nya sätt att förenkla processen att paketera och distribuera modeller med SageMaker.
I det här inlägget presenterar vi den nya SageMaker Python SDK ModelBuilder
erfarenhet, som syftar till att minimera inlärningskurvan för nya SageMaker-användare som datavetare, samtidigt som de hjälper erfarna MLOps-ingenjörer att maximera utnyttjandet av SageMakers värdtjänster. Det minskar komplexiteten i den initiala installationen och driftsättningen, och genom att ge vägledning om bästa praxis för att dra nytta av SageMakers fulla möjligheter. Vi tillhandahåller detaljerad information och GitHub-exempel för denna nya SageMaker-funktion.
Den andra nya lanseringen är att använda den nya interaktiva implementeringsupplevelsen i SageMaker Studio. Vi diskuterar detta i del 2.
Att distribuera modeller till en SageMaker-slutpunkt innebär en rad steg för att göra modellen redo att lagras på en SageMaker-slutpunkt. Detta innebär att få modellartefakterna i rätt format och struktur, skapa inferenskod och specificera väsentliga detaljer som modellbildens URL, Amazon enkel lagringstjänst (Amazon S3) placering av modellartefakter, serialiserings- och deserialiseringssteg och nödvändiga AWS identitets- och åtkomsthantering (IAM) roller för att underlätta lämpliga åtkomstbehörigheter. Efter detta kräver en slutpunktskonfiguration att man bestämmer slutledningstypen och konfigurerar respektive parametrar såsom instanstyper, antal och trafikfördelning mellan modellvarianter.
För att ytterligare hjälpa våra kunder när de använder SageMaker hosting, introducerade vi det nya ModelBuilder
klass i SageMaker Python SDK, vilket ger följande viktiga fördelar när man distribuerar modeller till SageMaker-slutpunkter:
- Förenar implementeringsupplevelsen över ramar – Den nya upplevelsen ger ett konsekvent arbetsflöde för att distribuera modeller byggda med olika ramverk som PyTorch, TensorFlow och XGBoost. Detta förenklar driftsättningsprocessen.
- Automatiserar modelldistribution – Uppgifter som att välja lämpliga behållare, fånga beroenden och hantera serialisering/deserialisering är automatiserade, vilket minskar den manuella ansträngningen som krävs för distribution.
- Ger en smidig övergång från lokal till SageMaker värd slutpunkt – Med minimala kodändringar kan modeller enkelt övergå från lokal testning till implementering på en SageMaker-slutpunkt. Liveloggar gör felsökning sömlös.
Sammantaget SageMaker ModelBuilder
förenklar och effektiviserar modellpaketeringsprocessen för SageMaker-inferens genom att hantera detaljer på låg nivå och tillhandahåller verktyg för testning, validering och optimering av slutpunkter. Detta förbättrar utvecklarnas produktivitet och minskar antalet fel.
I de följande avsnitten fördjupar vi oss i detaljerna i denna nya funktion. Vi diskuterar också hur man distribuerar modeller till SageMaker hosting med hjälp av ModelBuilder
, vilket förenklar processen. Sedan går vi igenom några exempel för olika ramverk för att distribuera både traditionella ML-modeller och grundmodellerna som kraftgenererande AI använder fall.
Lär känna SageMaker ModelBuilder
Den nya ModelBuilder
är en Python-klass fokuserad på att ta ML-modeller byggda med ramverk, som XGBoost eller PyTorch, och konvertera dem till modeller som är redo för driftsättning på SageMaker. ModelBuilder
tillhandahåller en build()
funktion, som genererar artefakter enligt modellservern, och en deploy()
funktion för att distribuera lokalt eller till en SageMaker-slutpunkt. Introduktionen av denna funktion förenklar integrationen av modeller med SageMaker-miljön, vilket optimerar dem för prestanda och skalbarhet. Följande diagram visar hur ModelBuilder
fungerar på hög nivå.
ModelBuilder klass
Smakämnen ModelBuilder klass ger olika alternativ för anpassning. Men för att distribuera rammodellen förväntar sig modellbyggaren bara modellen, input, output och roll:
SchemaBuilder
Smakämnen SchemaBuilder klass gör det möjligt för dig att definiera indata och utdata för din slutpunkt. Det tillåter schemabyggaren att generera motsvarande rangordningsfunktioner för att serialisera och deserialisera in- och utdata. Följande klassfil innehåller alla alternativ för anpassning:
Men i de flesta fall skulle bara provinmatning och -utgång fungera. Till exempel:
Genom att tillhandahålla exempelinmatning och -utgång, SchemaBuilder
kan automatiskt fastställa nödvändiga transformationer, vilket gör integrationsprocessen enklare. För mer avancerade användningsfall finns det flexibilitet att tillhandahålla anpassade översättningsfunktioner för både input och output, vilket säkerställer att mer komplexa datastrukturer också kan hanteras effektivt. Vi visar detta i följande avsnitt genom att använda olika modeller med olika ramverk ModelBuilder
.
Erfarenhet av lokalt läge
I det här exemplet använder vi ModelBuilder
för att distribuera XGBoost-modellen lokalt. Du kan använda Mode för att växla mellan lokal testning och distribution till en SageMaker-slutpunkt. Vi tränar först XGBoost-modellen (lokalt eller i SageMaker) och lagrar modellartefakterna i arbetskatalogen:
Sedan skapar vi ett ModelBuilder-objekt genom att skicka det faktiska modellobjektet, den SchemaBuilder
som använder provinmatnings- och utdataobjekten (samma indata och utdata som vi använde när vi tränade och testade modellen) för att sluta sig till den serialisering som behövs. Observera att vi använder Mode.LOCAL_CONTAINER
för att ange en lokal distribution. Efter det ringer vi till SLUTRESULTAT funktion för att automatiskt identifiera den stödda rambehållarbilden samt skanna efter beroenden. Se följande kod:
Äntligen kan vi ringa deploy
funktion i modellobjektet, som även ger liveloggning för enklare felsökning. Du behöver inte ange instanstyp eller antal eftersom modellen kommer att distribueras lokalt. Om du angav dessa parametrar kommer de att ignoreras. Denna funktion kommer att returnera prediktorobjektet som vi kan använda för att göra förutsägelser med testdata:
Alternativt kan du också styra laddningen av modellen och förbearbetning och efterbearbetning med hjälp av InferenceSpec
. Vi ger mer information senare i detta inlägg. Använder sig av LOCAL_CONTAINER
är ett utmärkt sätt att testa ditt skript lokalt innan det distribueras till en SageMaker-slutpunkt.
Referera till modellbyggare-xgboost.ipynb exempel för att testa driftsättning både lokalt och till en SageMaker-slutpunkt med hjälp av ModelBuilder
.
Distribuera traditionella modeller till SageMaker-slutpunkter
I följande exempel visar vi hur du använder ModelBuilder
att distribuera traditionella ML-modeller.
XGBoost-modeller
I likhet med föregående avsnitt kan du distribuera en XGBoost-modell till en SageMaker-slutpunkt genom att ändra mode
parameter när du skapar ModelBuilder
objekt:
Observera att när du distribuerar till SageMaker-slutpunkter måste du ange instanstypen och antalet instanser när du anropar deploy
funktion.
Referera till modellbyggare-xgboost.ipynb exempel för att distribuera en XGBoost-modell.
Triton modeller
Du kan använda ModelBuilder
att servera PyTorch-modeller på Triton Inference Server. För det måste du ange model_server
parameter som ModelServer.TRITON
, klara en modell och ha en SchemaBuilder
objekt, som kräver exempelingångar och utdata från modellen. ModelBuilder tar hand om resten åt dig.
Hänvisa till modellbyggare-triton.ipynb att distribuera en modell med Triton.
Hugging Face-modeller
I det här exemplet visar vi dig hur du distribuerar en förtränad transformatormodell från Hugging Face till SageMaker. Vi vill använda Hugging Face pipeline
för att ladda modellen, så vi skapar en anpassad slutledningsspecifikation för ModelBuilder
:
Vi definierar också ingången och utmatningen av slutledningsarbetsbelastningen genom att definiera SchemaBuilder
objekt baserat på modellens input och output:
Sedan skapar vi ModelBuilder
objekt och distribuera modellen på en SageMaker-slutpunkt enligt samma logik som visas i det andra exemplet:
Hänvisa till modellbyggare-huggingface.ipynb att distribuera en Hugging Face-pipelinemodell.
Distribuera grundmodeller till SageMaker-slutpunkter
I följande exempel visar vi hur du använder ModelBuilder
att distribuera grundmodeller. Precis som de modeller som nämnts tidigare, är allt som krävs är modell-ID.
Kramar Face Hub
Om du vill distribuera en grundmodell från Kramar Face Hub, allt du behöver göra är att klara av det förutbildade modell-ID:t. Till exempel distribuerar följande kodavsnitt meta-llama/Llama-2-7b-hf modell lokalt. Du kan ändra läget till Mode.SAGEMAKER_ENDPOINT
att distribuera till SageMaker-slutpunkter.
För gated modeller på Hugging Face Hub måste du begära åtkomst via Hugging Face Hub och använda den associerade nyckeln genom att skicka den som miljövariabel HUGGING_FACE_HUB_TOKEN
. Vissa Hugging Face-modeller kan kräva pålitlig fjärrkod. Den kan också ställas in som en miljövariabel med hjälp av HF_TRUST_REMOTE_CODE
. Som standard är ModelBuilder
kommer att använda en Hugging Face Text Generation Inference (TGI) container som underliggande container för Hugging Face-modeller. Om du vill använda AWS Large Model Inference (LMI) behållare, kan du ställa in model_server
parameter som ModelServer.DJL_SERVING
när du konfigurerar ModelBuilder
objekt.
Ett snyggt inslag av ModelBuilder
är möjligheten att köra lokal justering av containerparametrarna när du använder LOCAL_CONTAINER
läge. Denna funktion kan användas genom att helt enkelt köra tuned_model = model.tune()
.
Hänvisa till demo-modellbyggare-huggingface-llama2.ipynb att distribuera en Hugging Face Hub-modell.
SageMaker JumpStart
Amazon SageMaker JumpStart erbjuder även ett antal förutbildade foundationmodeller. Precis som processen att distribuera en modell från Hugging Face Hub krävs modell-ID. Att distribuera en SageMaker JumpStart-modell till en SageMaker-slutpunkt är lika enkelt som att köra följande kod:
För alla tillgängliga SageMaker JumpStart-modell-ID, se Inbyggda algoritmer med förtränad modellbord. Hänvisa till modellbyggare-jumpstart-falcon.ipynb att distribuera en SageMaker JumpStart-modell.
Slutledningskomponent
ModelBulder
låter dig använda den nya inferenskomponentkapaciteten i SageMaker för att distribuera modeller. För mer information om inferenskomponenter, se Minska modellimplementeringskostnaderna med 50 % i genomsnitt genom att använda SageMakers senaste funktioner. Du kan använda slutledningskomponenter för distribution med ModelBuilder
genom att specificera endpoint_type=EndpointType.INFERENCE_COMPONENT_BASED
i deploy()
metod. Du kan också använda tune()
metod, som hämtar det optimala antalet acceleratorer, och modifiera den vid behov.
Hänvisa till model-builder-inference-component.ipynb att distribuera en modell som en slutledningskomponent.
Anpassa ModelBuilder Class
Smakämnen ModelBuilder
klass låter dig anpassa modellladdning med hjälp av InferenceSpec
.
Dessutom kan du styra nyttolast och svar serialisering och deserialisering och anpassa förbearbetning och efterbearbetning med CustomPayloadTranslator
. Dessutom, när du behöver utöka våra förbyggda behållare för modelldistribution på SageMaker, kan du använda ModelBuilder
att hantera modellförpackningsprocessen. I det här följande avsnittet ger vi mer information om dessa funktioner.
InferensSpec
InferensSpec erbjuder ett extra lager av anpassning. Det låter dig definiera hur modellen laddas och hur den ska hantera inkommande slutledningsförfrågningar. Genom InferenceSpec
, kan du definiera anpassade laddningsprocedurer för dina modeller och kringgå standardladdningsmekanismerna. Denna flexibilitet är särskilt fördelaktig när man arbetar med icke-standardiserade modeller eller anpassade slutledningsledningar. Invoke-metoden kan anpassas, vilket ger dig möjlighet att skräddarsy hur modellen bearbetar inkommande förfrågningar (för- och efterbearbetning). Denna anpassning kan vara väsentlig för att säkerställa att slutledningsprocessen överensstämmer med modellens specifika behov. Se följande kod:
Följande kod visar ett exempel på hur den här klassen används:
CustomPayloadTranslator
När SageMaker-slutpunkter anropas skickas data via HTTP-nyttolaster med olika MIME-typer. Till exempel måste en bild som skickas till slutpunkten för slutledning konverteras till byte på klientsidan och skickas via HTTP-nyttolasten till slutpunkten. När slutpunkten tar emot nyttolasten måste den deserialisera bytesträngen tillbaka till den datatyp som förväntas av modellen (även känd som deserialisering på serversidan). Efter att modellen är klar med prediktionen måste resultaten serialiseras till bytes som kan skickas tillbaka via HTTP-nyttolasten till användaren eller klienten. När klienten tar emot svarsbytedata måste den utföra deserialisering på klientsidan för att konvertera bytedata tillbaka till det förväntade dataformatet, såsom JSON. Åtminstone du måste konvertera data för följande (som numrerat i följande diagram):
- Serialisering av slutledningsbegäran (hanteras av klienten)
- Deserialisering av slutledningsbegäran (hanteras av servern eller algoritmen)
- Anropa modellen mot nyttolasten
- Skickar tillbaka nyttolasten
- Serialisering av slutledningssvar (hanteras av servern eller algoritmen)
- Deserialisering av slutledningssvar (hanteras av klienten)
Följande diagram visar processen för serialisering och deserialisering under anropsprocessen.
I följande kodavsnitt visar vi ett exempel på CustomPayloadTranslator
när ytterligare anpassning behövs för att hantera både serialisering och deserialisering på klient- respektive serversidan:
I demo-model-builder-pytorch.ipynb notebook, visar vi hur man enkelt distribuerar en PyTorch-modell till en SageMaker-slutpunkt med hjälp av ModelBuilder
med CustomPayloadTranslator
och InferenceSpec
klass.
Etappmodell för utbyggnad
Om du vill iscensätta modellen för slutledning eller i modellregistret kan du använda model.create()
or model.register()
. Den aktiverade modellen skapas på tjänsten och sedan kan du distribuera senare. Se följande kod:
Använd anpassade behållare
SageMaker tillhandahåller förbyggda Docker-bilder för dess inbyggda algoritmer och de stödda ramverken för djupinlärning som används för träning och slutledning. Om en förbyggd SageMaker-behållare inte uppfyller alla dina krav, kan du utöka den befintliga bilden för att tillgodose dina behov. Genom att utöka en förbyggd bild kan du använda de medföljande djupinlärningsbiblioteken och inställningarna utan att behöva skapa en bild från grunden. För mer information om hur man utökar de förbyggda behållarna, se SageMaker-dokumentet. ModelBuilder
stöder användningsfall när du tar med dina egna containrar som utökas från våra förbyggda Docker-containrar.
För att använda din egen containerbild i det här fallet måste du ställa in fälten image_uri
och model_server
när man definierar ModelBuilder
:
Här, den image_uri
kommer att vara behållarbilden ARN som lagras i ditt kontos Amazon Elastic Container Registry (Amazon ECR) arkiv. Ett exempel visas som följer:
När image_uri
är inställd, under ModelBuilder
byggprocessen, kommer den att hoppa över automatisk upptäckt av bilden när bildens URI tillhandahålls. Om model_server
inte är inställt i ModelBuilder får du ett valideringsfelmeddelande, till exempel:
Från och med publiceringen av detta inlägg, ModelBuilder
stödjer att ta med egna containrar som är förlängda från vår förbyggda DLC-containerbilder eller behållare byggda med modellen servrar som Djupt Java-bibliotek (DJL), Text Generation Inference (TGI), TorchServeoch Triton slutledningsserver.
Anpassade beroenden
När du kör ModelBuilder.build()
, som standard fångar den automatiskt din Python-miljö i en requirements.txt
fil och installerar samma beroende i behållaren. Men ibland kommer din lokala Python-miljö i konflikt med miljön i behållaren. ModelBuilder
ger dig ett enkelt sätt att ändra de infångade beroendena för att fixa sådana beroendekonflikter genom att låta dig tillhandahålla dina anpassade konfigurationer i ModelBuilder
. Observera att detta endast är för TorchServe och Triton med InferenceSpec
. Du kan till exempel ange beroenden för indataparametrar, som är en Python-ordbok, i ModelBuilder enligt följande:
Vi definierar följande fält:
- bil – Om du ska försöka automatiskt fånga beroenden i din miljö.
- krav – En sträng på vägen till din egen
requirements.txt
fil. (Detta är valfritt.) - beställnings – En lista över alla andra anpassade beroenden som du vill lägga till eller ändra. (Detta är valfritt.)
Om samma modul anges på flera ställen, custom
kommer att ha högsta prioritet då requirements
och auto
kommer att ha lägsta prioritet. Låt oss till exempel säga att under autodetektering, ModelBuilder
känner av numpy==1.25
Och en requirements.txt
fil tillhandahålls som anger numpy>=1.24,<1.26
. Dessutom finns det ett anpassat beroende: custom = ["numpy==1.26.1"]
. I detta fall, numpy==1.26.1
kommer att väljas när vi installerar beroenden i behållaren.
Städa upp
När du är klar med att testa modellerna, som en bästa praxis, radera slutpunkten för att spara kostnader om slutpunkten inte längre behövs. Du kan följa Städa upp avsnitt i var och en av demo-anteckningsböckerna eller använd följande kod för att ta bort modellen och slutpunkten som skapats av demon:
Slutsats
Den nya SageMaker ModelBuilder-möjligheten förenklar processen att distribuera ML-modeller i produktion på SageMaker. Genom att hantera många av de komplexa detaljerna bakom kulisserna, minskar ModelBuilder inlärningskurvan för nya användare och maximerar utnyttjandet för erfarna användare. Med bara några rader kod kan du distribuera modeller med inbyggda ramverk som XGBoost, PyTorch, Triton och Hugging Face, såväl som modeller från SageMaker JumpStart till robusta, skalbara slutpunkter på SageMaker.
Vi uppmuntrar alla SageMaker-användare att prova denna nya funktion genom att hänvisa till ModelBuilder dokumentationssida. ModelBuilder är tillgängligt nu för alla SageMaker-användare utan extra kostnad. Dra fördel av detta förenklade arbetsflöde för att få dina modeller att distribueras snabbare. Vi ser fram emot att höra hur ModelBuilder accelererar din modellutvecklingslivscykel!
Speciellt tack till Sirisha Upadhyayala, Raymond Liu, Gary Wang, Dhawal Patel, Deepak Garg och Ram Vegiraju.
Om författarna
Melanie Li, PhD, är en Senior AI/ML Specialist TAM vid AWS baserad i Sydney, Australien. Hon hjälper företagskunder att bygga lösningar med hjälp av toppmoderna AI/ML-verktyg på AWS och ger vägledning om arkitektur och implementering av ML-lösningar med bästa praxis. På fritiden älskar hon att utforska naturen och umgås med familj och vänner.
Marc Karp är en ML-arkitekt med Amazon SageMaker Service-teamet. Han fokuserar på att hjälpa kunder att designa, distribuera och hantera ML-arbetsbelastningar i stor skala. På fritiden tycker han om att resa och utforska nya platser.
Sam Edwards, är en molningenjör (AI/ML) på AWS Sydney specialiserad på maskininlärning och Amazon SageMaker. Han brinner för att hjälpa kunder att lösa problem relaterade till arbetsflöden för maskininlärning och skapa nya lösningar för dem. Utanför jobbet tycker han om att spela racketsporter och att resa.
Raghu Ramesha är senior ML Solutions Architect med Amazon SageMaker Service-teamet. Han fokuserar på att hjälpa kunder att bygga, distribuera och migrera ML-produktionsarbetsbelastningar till SageMaker i stor skala. Han är specialiserad på domäner för maskininlärning, AI och datorseende och har en magisterexamen i datavetenskap från UT Dallas. På fritiden tycker han om att resa och fotografera.
Shiva Raaj Kotini arbetar som huvudproduktchef i Amazon SageMakers produktportfölj. Han fokuserar på modelldistribution, prestandajustering och optimering i SageMaker för slutledning.
Mohan Gandhi är senior mjukvaruingenjör på AWS. Han har varit med AWS de senaste 10 åren och har arbetat med olika AWS-tjänster som EMR, EFA och RDS. För närvarande fokuserar han på att förbättra SageMaker Inference Experience. På fritiden tycker han om vandring och maraton.
- SEO-drivet innehåll och PR-distribution. Bli förstärkt idag.
- PlatoData.Network Vertical Generative Ai. Styrka dig själv. Tillgång här.
- PlatoAiStream. Web3 Intelligence. Kunskap förstärkt. Tillgång här.
- Platoesg. Kol, CleanTech, Energi, Miljö, Sol, Avfallshantering. Tillgång här.
- PlatoHealth. Biotech och kliniska prövningar Intelligence. Tillgång här.
- Källa: https://aws.amazon.com/blogs/machine-learning/package-and-deploy-classical-ml-and-llms-easily-with-amazon-sagemaker-part-1-pysdk-improvements/
- : har
- :är
- :inte
- :var
- $UPP
- 1
- 10
- 100
- 11
- 114
- 12
- 125
- 13
- 14
- 15%
- 16
- 17
- 20
- 24
- 26%
- 7
- 8
- 9
- a
- ABC
- förmåga
- Om oss
- accelererar
- acceleratorer
- tillgång
- rymma
- Enligt
- tvärs
- faktiska
- lägga till
- Dessutom
- Annat
- Dessutom
- avancerat
- Fördel
- Efter
- mot
- AI
- ai användningsfall
- AI / ML
- Syftet
- algoritm
- algoritmer
- Justerar
- Alla
- tillåta
- tillåter
- också
- Även
- amason
- Amazon SageMaker
- Amazon Web Services
- bland
- an
- och
- vilken som helst
- api
- lämpligt
- ÄR
- AS
- associerad
- At
- Australien
- bil
- Automatiserad
- automatiskt
- tillgänglig
- genomsnitt
- AWS
- tillbaka
- baserat
- BE
- därför att
- varit
- innan
- bakom
- bakom kulisserna
- fördelaktigt
- Fördelarna
- BÄST
- bästa praxis
- Bättre
- mellan
- båda
- Föra
- Bringar
- SLUTRESULTAT
- byggare
- byggt
- inbyggd
- by
- Ring
- anropande
- Samtal
- KAN
- kapacitet
- kapacitet
- fånga
- fångas
- fångar
- Fångande
- vilken
- Vid
- fall
- byta
- Förändringar
- byte
- laddning
- val
- klass
- klient
- cloud
- koda
- kommentar
- komplex
- Komplexiteten
- komponent
- komponenter
- dator
- Datavetenskap
- Datorsyn
- konfiguration
- konfigurering
- konflikt
- konflikter
- konsekvent
- Konsol
- Behållare
- Behållare
- kontroll
- konvertera
- konverterad
- omvandling
- korrekt
- Motsvarande
- Kostar
- skapa
- skapas
- Skapa
- För närvarande
- kurva
- beställnings
- Kunder
- anpassning
- skräddarsy
- kundanpassad
- Dallas
- datum
- djup
- djupdykning
- djupt lärande
- Deepak
- Standard
- definiera
- definierar
- definierande
- Examen
- demo
- demonstrera
- beroenden
- Dependency
- distribuera
- utplacerade
- utplacera
- utplacering
- distributioner
- vecklas ut
- Designa
- detaljerad
- detaljer
- Detektering
- Bestämma
- bestämmande
- Utvecklare
- utvecklare
- Utveckling
- olika
- direkt
- diskutera
- fördelning
- Dyk
- do
- Hamnarbetare
- dokumentera
- dokumentation
- inte
- domäner
- gjort
- inte
- under
- varje
- Tidigare
- lättare
- lätt
- effektivt
- ansträngning
- enkelt
- aktiverad
- möjliggör
- uppmuntra
- Slutpunkt
- ingenjör
- Ingenjörer
- säkerställa
- säkerställa
- Företag
- inträde
- Miljö
- fel
- fel
- väsentlig
- exempel
- exempel
- befintliga
- förväntat
- förväntar
- erfarenhet
- erfaren
- utforska
- Utforska
- förlänga
- sträcker
- Ansikte
- främja
- familj
- snabbare
- Leverans
- få
- Fält
- Fil
- Förnamn
- Fast
- Flexibilitet
- fokuserade
- fokuserar
- följer
- efter
- följer
- För
- format
- Framåt
- fundament
- Ramverk
- ramar
- Fri
- vänner
- från
- Uppfylla
- full
- fullständigt
- fungera
- funktioner
- ytterligare
- garg
- Gary
- Gary Wang
- gated
- generera
- genererar
- generering
- generativ
- Generativ AI
- skaffa sig
- få
- GitHub
- kommer
- stor
- vägleda
- hantera
- Arbetsmiljö
- händer
- Har
- har
- he
- hörsel
- hjälpa
- hjälpa
- hjälper
- här
- högnivå
- högsta
- hans
- innehar
- värd
- värd
- värdtjänster
- Hur ser din drömresa ut
- How To
- Men
- html
- http
- HTTPS
- Nav
- ID
- identifiera
- Identitet
- ids
- if
- bild
- genomföra
- importera
- förbättringar
- förbättrar
- förbättra
- in
- ingår
- Inkommande
- informationen
- inledande
- ingång
- ingångar
- installera
- exempel
- integrering
- interaktiva
- in
- införa
- introducerade
- Beskrivning
- åberopas
- problem
- IT
- DESS
- java
- jpg
- json
- bara
- Nyckel
- Vet
- känd
- Large
- Efternamn
- senare
- senaste
- lansera
- lansera
- lager
- inlärning
- bibliotek
- Bibliotek
- tycka om
- rader
- Lista
- lever
- Lama
- läsa in
- läser in
- lokal
- lokalt
- läge
- skogsavverkning
- Logiken
- längre
- se
- du letar
- älskar
- lägst
- Maskinen
- maskininlärning
- göra
- GÖR
- Framställning
- hantera
- förvaltade
- chef
- manuell
- många
- master
- Maximera
- maximerar
- Maj..
- mekanismer
- Minne
- nämnts
- meddelande
- metod
- migrera
- minimum
- minsta
- ML
- MLOps
- Mode
- modell
- modeller
- modifiera
- Modulerna
- mer
- mest
- multipel
- måste
- Natur
- nödvändigt för
- Behöver
- behövs
- behov
- Nya
- nya användare
- Nej
- Ingen
- Notera
- anteckningsbok
- nu
- antal
- numrerad
- objektet
- objekt
- of
- Erbjudanden
- on
- ONE
- endast
- till
- optimala
- optimering
- Optimera
- optimera
- Tillbehör
- or
- Övriga
- vår
- ut
- produktion
- utgångar
- utanför
- egen
- paket
- förpackade
- förpackning
- sida
- parameter
- parametrar
- del
- särskilt
- passera
- Förbi
- brinner
- bana
- Utföra
- prestanda
- behörigheter
- personlig
- phd
- fotografi
- plockade
- rörledning
- platser
- plato
- Platon Data Intelligence
- PlatonData
- lekplats
- i
- poäng
- portfölj
- Inlägg
- kraft
- praktiken
- praxis
- förutse
- förutsägelse
- Predictor
- föregående
- Principal
- prioritet
- förfaranden
- process
- processer
- Produkt
- produktchef
- Produktion
- produktivitet
- ge
- förutsatt
- ger
- tillhandahålla
- Offentliggörande
- sköt
- Python
- pytorch
- snabbt
- RAM
- redo
- motta
- erhåller
- minskar
- reducerande
- hänvisa
- register
- relaterad
- avlägsen
- Repository
- begära
- förfrågningar
- kräver
- Obligatorisk
- Krav
- Kräver
- att
- respektive
- respons
- REST
- Resultat
- avkastning
- robusta
- Roll
- roller
- Körning
- rinnande
- sagemaker
- SageMaker Inference
- Samma
- Save
- sparade
- säga
- skalbarhet
- skalbar
- Skala
- scanna
- scener
- Vetenskap
- vetenskapsmän
- repa
- skript
- sDK
- sdks
- sömlös
- §
- sektioner
- se
- välj
- väljer
- SJÄLV
- senior
- skickas
- Serier
- tjänar
- server
- Servrar
- service
- Tjänster
- in
- inställningar
- inställning
- hon
- show
- visa
- visas
- Visar
- sida
- Enkelt
- förenklade
- förenklar
- förenkla
- helt enkelt
- släta
- kodavsnitt
- So
- Mjukvara
- Programvara ingenjör
- Lösningar
- LÖSA
- några
- ibland
- specialist
- specialiserad
- specialiserat
- specifik
- specificerade
- spendera
- Sporter
- Etapp
- state-of-the-art
- Steg
- Fortfarande
- förvaring
- lagra
- lagras
- okomplicerad
- ström
- strömlinjer
- Sträng
- struktur
- strukturer
- studio
- sådana
- Som stöds
- Stöder
- Växla
- sydney
- skräddarsydd
- Ta
- tar
- uppgifter
- grupp
- tensorflow
- testa
- Testning
- text
- Tack
- den där
- Smakämnen
- deras
- Dem
- sedan
- Där.
- Dessa
- de
- detta
- Genom
- tid
- till
- token
- verktyg
- traditionell
- trafik
- Tåg
- Utbildning
- transformationer
- transformator
- övergång
- transitioned
- Översättning
- Traveling
- Triton
- sann
- lita
- prova
- trimma
- två
- Typ
- typer
- underliggande
- URL
- användning
- Begagnade
- Användare
- användare
- användningar
- med hjälp av
- godkännande
- värde
- variabel
- olika
- via
- syn
- gå
- vill
- Sätt..
- sätt
- we
- webb
- webbservice
- VÄL
- när
- om
- som
- medan
- kommer
- med
- utan
- Arbete
- arbetade
- arbetsflöde
- arbetsflöden
- arbetssätt
- fungerar
- skulle
- XGBoost
- år
- Om er
- Din
- zephyrnet