PyTorch är ett ramverk för maskininlärning (ML) som används i stor utsträckning av AWS-kunder för en mängd olika applikationer, såsom datorseende, naturlig språkbehandling, innehållsskapande och mer. Med den senaste versionen av PyTorch 2.0 kan AWS-kunder nu göra samma saker som de kunde med PyTorch 1.x men snabbare och i skala med förbättrade träningshastigheter, lägre minnesanvändning och förbättrade distribuerade möjligheter. Flera nya teknologier inklusive torch.compile, TorchDynamo, AOTAutograd, PrimTorch och TorchInductor har inkluderats i PyTorch2.0-utgåvan. Hänvisa till PyTorch 2.0: Vår nästa generations release som är snabbare, mer pytonisk och dynamisk som någonsin för mer information.
Det här inlägget visar prestandan och lättheten att köra storskalig, högpresterande distribuerad ML-modellutbildning och implementering med PyTorch 2.0 på AWS. Det här inlägget går vidare genom en steg-för-steg-implementering av finjustering av en RobERTa-modell (Robustly Optimized BERT Pretraining Approach) för sentimentanalys med hjälp av AWS Deep Learning AMI: er (AWS DLAMI) och AWS Deep Learning-behållare (DLC) på Amazon Elastic Compute Cloud (Amazon EC2 p4d.24xlarge) med en observerad hastighet på 42 % när den används med PyTorch 2.0 torch.compile + bf16 + fused AdamW. Den finjusterade modellen distribueras sedan på AWS Graviton-baserad C7g EC2-instans på Amazon SageMaker med en observerad hastighet på 10 % jämfört med PyTorch 1.13.
Följande figur visar ett prestandariktmärke för att finjustera en RobERTa-modell på Amazon EC2 p4d.24xlarge med AWS PyTorch 2.0 DLAMI + DLC.
Hänvisa till Optimerad PyTorch 2.0 slutledning med AWS Graviton-processorer för detaljer om AWS Graviton-baserade instansers prestandamätvärden för PyTorch 2.0.
Stöd för PyTorch 2.0 på AWS
PyTorch2.0-stödet är inte begränsat till de tjänster och beräkningar som visas i exemplet use-case i det här inlägget; det sträcker sig till många andra på AWS, som vi diskuterar i det här avsnittet.
Affärskrav
Många AWS-kunder, inom en mängd olika branscher, förvandlar sina verksamheter genom att använda artificiell intelligens (AI), speciellt inom området generativ AI och stora språkmodeller (LLM) som är designade för att generera människoliknande text. Dessa är i grunden stora modeller baserade på djupinlärningstekniker som tränas med hundratals miljarder parametrar. Tillväxten av modellstorlekar ökar träningstiden från dagar till veckor, och till och med månader i vissa fall. Detta driver på en exponentiell ökning av utbildnings- och slutledningskostnader, vilket mer än någonsin kräver ett ramverk som PyTorch 2.0 med inbyggt stöd för accelererad modellträning och den optimerade infrastrukturen för AWS skräddarsydd för de specifika arbetsbelastningarna och prestationsbehoven.
Val av dator
AWS tillhandahåller PyTorch 2.0-stöd för det bredaste urvalet av kraftfulla datorer, höghastighetsnätverk och skalbara högpresterande lagringsalternativ som du kan använda för alla ML-projekt eller applikationer och anpassa för att passa dina prestanda- och budgetkrav. Detta manifesteras i diagrammet i nästa avsnitt; i den nedre nivån tillhandahåller vi ett brett urval av beräkningsinstanser som drivs av AWS Graviton-, Nvidia-, AMD- och Intel-processorer.
För modellinstallationer kan du använda ARM-baserade processorer som den nyligen tillkännagivna AWS Graviton-baserade instansen som ger slutledningsprestanda för PyTorch 2.0 med upp till 3.5 gånger hastigheten för Resnet50 jämfört med den tidigare PyTorch-releasen, och upp till 1.4 gånger så mycket hastighet för BERT, vilket gör AWS Graviton-baserade instanser till de snabbaste beräkningsoptimerade instanserna på AWS för CPU-baserade modellinferenslösningar.
Val av ML-tjänster
För att använda AWS compute kan du välja från en bred uppsättning globala molnbaserade tjänster för ML-utveckling, beräkning och orkestrering av arbetsflöden. Det här valet låter dig anpassa dig till dina affärs- och molnstrategier och köra PyTorch 2.0-jobb på den plattform du väljer. Om du till exempel har begränsningar på plats eller befintliga investeringar i produkter med öppen källkod kan du använda Amazon EC2, AWS ParallelCluster, eller AWS UltraCluster att köra distribuerade träningsbelastningar utifrån ett självstyrt tillvägagångssätt. Du kan också använda en helt hanterad tjänst som SageMaker för en kostnadsoptimerad, helt hanterad och produktionsskala utbildningsinfrastruktur. SageMaker integrerar också med olika MLOps-verktyg, vilket gör att du kan skala din modelldistribution, minska slutledningskostnader, hantera modeller mer effektivt i produktionen och minska operativ börda.
På samma sätt, om du har befintliga Kubernetes-investeringar, kan du också använda Amazon Elastic Kubernetes-tjänst (Amazon EKS) och Kubeflow på AWS att implementera en ML-pipeline för distribuerad utbildning eller använda en AWS-native container orkestreringstjänst som Amazon Elastic Container Service (Amazon ECS) för modellträning och utplaceringar. Alternativen för att bygga din ML-plattform är inte begränsade till dessa tjänster; du kan välja och vraka beroende på dina organisatoriska krav för dina PyTorch 2.0-jobb.
Aktiverar PyTorch 2.0 med AWS DLAMI och AWS DLC
För att använda den tidigare nämnda stacken av AWS-tjänster och kraftfulla datorer måste du installera en optimerad kompilerad version av PyTorch2.0-ramverket och dess nödvändiga beroenden, av vilka många är oberoende projekt, och testa dem från början till slut. Du kan också behöva CPU-specifika bibliotek för accelererade matematiska rutiner, GPU-specifika bibliotek för accelererade matematik och inter-GPU-kommunikationsrutiner och GPU-drivrutiner som måste anpassas till GPU-kompilatorn som används för att kompilera GPU-biblioteken. Om dina jobb kräver storskalig multi-nod utbildning behöver du ett optimerat nätverk som kan ge lägsta latens och högsta genomströmning. När du har byggt din stack måste du regelbundet skanna och korrigera dem efter säkerhetsbrister och bygga om och testa stacken efter varje uppgradering av ramversionen.
AWS hjälper till att minska dessa tunga lyft genom att erbjuda en utvald och säker uppsättning ramverk, beroenden och verktyg för att påskynda djupinlärning i molnet. AWS DLAMIs och AWS DLC:er. Dessa förbyggda och testade maskinbilder och behållare är optimerade för djupinlärning på EC2 Accelerated Computing Instance-typer, vilket gör att du kan skala ut till flera noder för distribuerade arbetsbelastningar mer effektivt och enkelt. Den innehåller en förbyggd Elastisk tygadapter (EFA), Nvidia GPU-stack och många ramverk för djupinlärning (TensorFlow, MXNet och PyTorch med senaste versionen av 2.0) för högpresterande distribuerad djupinlärningsträning. Du behöver inte lägga tid på att installera och felsöka mjukvara och drivrutiner för djupinlärning eller bygga ML-infrastruktur, och du behöver inte heller ta på dig de återkommande kostnaderna för att patcha dessa bilder för säkerhetsbrister eller återskapa bilderna efter varje ny uppgradering av ramverksversionen. Istället kan du fokusera på den högre mervärdesinsatsen med utbildningsjobb i stor skala på kortare tid och att iterera på dina ML-modeller snabbare.
Lösningsöversikt
Med tanke på att utbildning om GPU och slutledning om CPU är ett populärt användningsfall för AWS-kunder, har vi som en del av detta inlägg inkluderat en steg-för-steg-implementering av en hybridarkitektur (som visas i följande diagram). Vi kommer att utforska det möjliga konsten och använda en P4 EC2-instans med BF16-stöd initierat med Base GPU DLAMI inklusive NVIDIA-drivrutiner, CUDA, NCCL, EFA-stack och PyTorch2.0 DLC för att finjustera en RobERTa-sentimentanalysmodell som ger dig kontroll och flexibilitet att använda alla öppen källkod eller proprietära bibliotek. Sedan använder vi SageMaker för en helt hanterad modellvärdinfrastruktur för att vara värd för vår modell på AWS Graviton3-baserad C7g-instanser. Vi valde C7g på SageMaker eftersom det har visat sig minska slutledningskostnaderna med upp till 50 % jämfört med jämförbara EC2-instanser för slutledning i realtid på SageMaker. Följande diagram illustrerar denna arkitektur.
Modellutbildningen och värdskapet i detta användningsfall består av följande steg:
- Starta en GPU DLAMI-baserad EC2 Ubuntu-instans i din VPC och anslut till din instans med SSH.
- När du har loggat in på din EC2-instans laddar du ner AWS PyTorch 2.0 DLC.
- Kör din DLC-behållare med ett modellträningsskript för att finjustera RobERTa-modellen.
- När modellutbildningen är klar, packa den sparade modellen, slutledningsskripten och några metadatafiler till en tar-fil som SageMaker inference kan använda och ladda upp modellpaketet till en Amazon enkel lagringstjänst (Amazon S3) hink.
- Distribuera modellen med SageMaker och skapa en slutpunkt för HTTPS-inferens. SageMaker slutpunkten innehåller en lastbalanserare och en eller flera instanser av din slutledningsbehållare i olika tillgänglighetszoner. Du kan distribuera antingen flera versioner av samma modell eller helt olika modeller bakom denna enda slutpunkt. I det här exemplet är vi värd för en enda modell.
- Anropa din modelländpunkt genom att skicka den testdata och verifiera slutledningsutgången.
I följande avsnitt visar vi upp finjustering av en RobERTa-modell för sentimentanalys. RoBERTa är utvecklad av Facebook AI, och förbättrar den populära BERT-modellen genom att modifiera nyckelhyperparametrar och förträning på en större korpus. Detta leder till förbättrad prestanda jämfört med vanilj BERT.
Vi använder transformatorer bibliotek av Hugging Face för att få RoBERTa-modellen förtränad på cirka 124 miljoner tweets, och vi finjusterar den på Twitter-dataset för sentimentanalys.
Förutsättningar
Se till att du uppfyller följande krav:
- Du har en AWS-konto.
- Se till att du är i
us-west-2
Region för att köra det här exemplet. (Detta exempel testas ius-west-2
; men du kan köra i vilken annan region som helst.) - Skapa en roll med namnet
sagemakerrole
. Lägg till hanterade policyerAmazonSageMakerFullAccess
ochAmazonS3FullAccess
för att ge SageMaker tillgång till S3-hinkar. - Skapa en EC2-roll med namnet
ec2_role
. Använd följande behörighetspolicy:
1. Starta din utvecklingsinstans
Vi skapar en p4d.24xlarge-instans som erbjuder 8 NVIDIA A100 Tensor Core GPU:er i us-west-2
:
När du väljer AMI, följ släpp anteckningar för att köra det här kommandot med hjälp av AWS-kommandoradsgränssnitt (AWS CLI) för att hitta det AMI-ID som ska användas i us-west-2
:
Se till att storleken på gp3-rotvolymen är 200 GiB.
EBS volymkryptering är inte aktiverad som standard. Överväg att ändra detta när du flyttar denna lösning till produktion.
2. Ladda ner en Deep Learning Container
AWS DLC:er är tillgängliga som Docker-bilder i Amazon Elastic Container Registry Public, en hanterad AWS container image registertjänst som är säker, skalbar och pålitlig. Varje Docker-bild är byggd för utbildning eller slutledning om en specifik version av ramverket för djupinlärning, Python-version, med CPU- eller GPU-stöd. Välj PyTorch 2.0-ramverket från listan över tillgängliga Deep Learning Containers bilder.
Utför följande steg för att ladda ner din DLC:
a. SSH till instansen. Som standard öppnar säkerhetsgruppen som används med EC2 upp SSH-porten för alla. Tänk på detta om du flyttar den här lösningen till produktion:
Som standard öppnar säkerhetsgruppen som används med Amazon EC2 upp SSH-porten för alla. Överväg att ändra detta om du flyttar den här lösningen till produktion.
b. Ställ in de miljövariabler som krävs för att köra de återstående stegen av denna implementering:
Amazon ECR stöder offentliga bildarkiv med resursbaserade behörigheter med AWS identitets- och åtkomsthantering (IAM) så att specifika användare eller tjänster kan komma åt bilder.
c. Logga in i DLC-registret:
d. Dra in den senaste PyTorch 2.0-behållaren med GPU-stöd us-west-2
Om du får felet "inget utrymme kvar på enheten", se till att du öka EC2 EBS-volymen till 200 GiB och därefter förlänga Linux-filsystemet.
3. Klona de senaste skripten anpassade till PyTorch 2.0
Klona skripten med följande kod:
Eftersom vi använder Hugging Face transformers API med den senaste versionen 4.28.1, har det redan aktiverat PyTorch 2.0-stöd. Vi lade till följande argument till trainer API i train_sentiment.py
för att aktivera nya PyTorch 2.0-funktioner:
- Torch kompilera – Upplev en genomsnittlig hastighet på 43 % på Nvidia A100 GPU:er med en enda ändringslinje.
- BF16 datatyp – Nytt stöd för datatyp (Brain Floating Point) för Ampere eller nyare GPU:er.
- Fused AdamW optimizer – Sammanslagen AdamW-implementering för att ytterligare påskynda träningen. Denna stokastiska optimeringsmetod modifierar den typiska implementeringen av viktminskning i Adam genom att koppla bort viktminskning från gradientuppdateringen.
4. Bygg en ny Docker-bild med beroenden
Vi utökar den förbyggda PyTorch 2.0 DLC-bilden för att installera Hugging Face-transformatorn och andra bibliotek som vi behöver för att finjustera vår modell. Detta gör att du kan använda de medföljande testade och optimerade djupinlärningsbiblioteken och inställningarna utan att behöva skapa en bild från grunden. Se följande kod:
5. Börja träna med behållaren
Kör följande Docker-kommando för att börja finjustera modellen på tweet_eval
sentimentdatauppsättning. Vi använder Docker container-argument (delat minnesstorlek, max låst minne och stackstorlek) rekommenderas av Nvidia för arbetsbelastningar för djupinlärning.
Du bör förvänta dig följande utdata. Skriptet laddar först ned TweetEval-datauppsättningen, som består av sju heterogena uppgifter i Twitter, alla inramade som tvåtklassificering i flera klasser. Uppgifterna inkluderar ironi, hat, kränkande, hållning, emoji, känslor och sentiment.
Skriptet laddar sedan ner basmodellen och startar finjusteringsprocessen. Utbildnings- och utvärderingsmått rapporteras i slutet av varje epok.
Prestationsstatistik
Med PyTorch 2.0 och det senaste Hugging Face-transformatorbiblioteket 4.28.1, observerade vi en hastighetsökning på 42 % på en enda p4d.24xlarge-instans med 8 A100 40GB GPU:er. Prestandaförbättringar kommer från en kombination av torch.compile, BF16-datatypen och den sammansmälta AdamW-optimeraren. Följande kod är slutresultatet av två träningslopp med och utan nya funktioner:
6. Testa den tränade modellen lokalt innan du förbereder dig för SageMaker-inferens
Du hittar följande filer under $ml_working_dir/saved_model/
efter träning:
Låt oss se till att vi kan köra slutledning lokalt innan vi förbereder oss för SageMaker-inferens. Vi kan ladda den sparade modellen och köra slutledning lokalt med hjälp av test_trained_model.py
manus:
Du bör förvänta dig följande utdata med ingången "Covid-fall ökar snabbt!":
7. Förbered modellen tarball för SageMaker inferens
Under katalogen där modellen finns, skapa en ny katalog som heter code
:
Skapa filen i den nya katalogen inference.py
och lägg till följande:
I slutändan bör du ha följande mappstruktur:
Modellen är redo att paketeras och laddas upp till Amazon S3 för användning med SageMaker-inferens:
8. Distribuera modellen på en SageMaker AWS Graviton-instans
Nya generationer av processorer erbjuder en betydande prestandaförbättring i ML-inferens på grund av specialiserade inbyggda instruktioner. I det här användningsfallet använder vi SageMaker helt hanterade värdinfrastruktur med AWS Graviton3-baserade C7g-instanser. AWS har också mätt upp till 50 % kostnadsbesparingar för PyTorch-inferens med AWS Graviton3-baserade EC2 C7g-instanser över Torch Hub ResNet50 och flera Hugging Face-modeller i förhållande till jämförbara EC2-instanser.
För att distribuera modellerna till AWS Graviton-instanser använder vi AWS DLC:er som ger stöd för PyTorch 2.0 och TorchServe 0.8.0, eller så kan du ta med egna behållare som är kompatibla med ARMv8.2-arkitekturen.
Vi använder modellen vi tränade tidigare: s3://<your-s3-bucket>/twitter-roberta-base-sentiment-latest.tar.gz
. Om du inte har använt SageMaker tidigare, recensera Kom igång med Amazon SageMaker.
För att börja, se till att SageMaker-paketet är uppdaterat:
Eftersom detta är ett exempel, skapa en fil som heter start_endpoint.py
och lägg till följande kod. Detta kommer att vara Python-skriptet för att starta en SageMaker slutpunkt slutpunkt med läget:
Vi använder ml.c7g.4xlarge för instansen och hämtar PT 2.0 med ett bildomfattning inference_graviton
. Det här är vår AWS Graviton3-instans.
Därefter skapar vi filen som kör förutsägelsen. Vi gör dessa som separata skript så att vi kan köra förutsägelserna så många gånger vi vill. Skapa predict.py
med följande kod:
Med de genererade skripten kan vi nu starta en slutpunkt, göra förutsägelser mot slutpunkten och rensa upp när vi är klara:
9. Städa upp
Till sist vill vi rensa upp från detta exempel. Skapa cleanup.py och lägg till följande kod:
Slutsats
AWS DLAMI och DLC har blivit standarden för att köra djupinlärningsarbetsbelastningar på ett brett urval av dator- och ML-tjänster på AWS. Tillsammans med att använda ramspecifika DLC:er på AWS ML-tjänster kan du också använda ett enda ramverk på Amazon EC2, vilket tar bort de tunga lyft som krävs för utvecklare att bygga och underhålla applikationer för djupinlärning. Hänvisa till Release Notes för DLAMI och Tillgängliga bilder för Deep Learning Containers att komma igång.
Det här inlägget visade en av många möjligheter att träna och tjäna din nästa modell på AWS och diskuterade flera format som du kan använda för att uppfylla dina affärsmål. Ge det här exemplet ett försök eller använd våra andra AWS ML-tjänster för att utöka dataproduktiviteten för ditt företag. Vi har inkluderat ett enkelt problem med sentimentanalys så att kunder som är nya inom ML kan förstå hur enkelt det är att komma igång med PyTorch 2.0 på AWS. Vi kommer att täcka mer avancerade användningsfall, modeller och AWS-tekniker i kommande blogginlägg.
Om författarna
Kanwaljit Khurmi är en Principal Solutions Architect på Amazon Web Services. Han arbetar med AWS-kunderna för att ge vägledning och teknisk assistans som hjälper dem att förbättra värdet av sina lösningar när de använder AWS. Kanwaljit är specialiserat på att hjälpa kunder med container- och maskininlärningsapplikationer.
Mike Schneider är en systemutvecklare, baserad i Phoenix AZ. Han är medlem i Deep Learning-containrar, som stödjer olika Framework-containerbilder, inklusive Graviton Inference. Han är dedikerad till infrastrukturens effektivitet och stabilitet.
Lai Wei är senior mjukvaruingenjör på Amazon Web Services. Han fokuserar på att bygga lättanvända, högpresterande och skalbara ramverk för djupinlärning för att accelerera distribuerad modellträning. Utanför jobbet tycker han om att umgås med familjen, vandra och åka skidor.
- SEO-drivet innehåll och PR-distribution. Bli förstärkt idag.
- PlatoAiStream. Web3 Data Intelligence. Kunskap förstärkt. Tillgång här.
- Minting the Future med Adryenn Ashley. Tillgång här.
- Köp och sälj aktier i PRE-IPO-företag med PREIPO®. Tillgång här.
- Källa: https://aws.amazon.com/blogs/machine-learning/part-1-build-high-performance-ml-models-using-pytorch-2-0-on-aws/
- : har
- :är
- :inte
- :var
- $UPP
- 1
- 10
- 100
- 11
- 12
- 13
- 14
- 15%
- 16
- 17
- 20
- 200
- 23
- 25
- 26%
- 28
- 31
- 7
- 8
- 9
- a
- accelerera
- accelererad
- accelererande
- Acceptera
- tillgång
- tvärs
- Handling
- Adam
- lägga till
- lagt till
- anta
- avancerat
- Efter
- mot
- AI
- rikta
- Justerat
- Alla
- tillåter
- tillåta
- tillåter
- längs
- redan
- också
- amason
- Amazon EC2
- Amazon Web Services
- AMD
- mängd
- an
- analys
- analysera
- och
- meddelade
- Annan
- vilken som helst
- api
- Ansökan
- tillämpningar
- tillvägagångssätt
- cirka
- arkitektur
- ÄR
- OMRÅDE
- Argumentet
- argument
- konstgjord
- artificiell intelligens
- Konstgjord intelligens (AI)
- AS
- Bistånd
- At
- tillgänglighet
- tillgänglig
- genomsnitt
- AWS
- gunga
- bas
- baserat
- I grund och botten
- BE
- därför att
- blir
- varit
- innan
- börja
- bakom
- riktmärke
- riktmärken
- Stor
- miljarder
- SOPTUNNA
- Blogg
- Blogginlägg
- kropp
- Botten
- Hjärna
- bred
- budget
- SLUTRESULTAT
- Byggnad
- byggt
- inbyggd
- belastning
- företag
- företag
- men
- by
- Ring
- kallas
- anropande
- KAN
- kapacitet
- Vid
- fall
- CD
- byta
- byte
- val
- Välja
- klassificering
- klient
- cloud
- koda
- COM
- kombination
- kommer
- Kommunikation
- jämförbar
- jämfört
- kompatibel
- fullborda
- Compute
- dator
- Datorsyn
- databehandling
- Kontakta
- Tänk
- består
- Konsol
- Behållare
- Behållare
- innehåll
- innehållsskapande
- kontroll
- Kärna
- Pris
- kostnadsbesparingar
- Kostar
- kunde
- beläggning
- skapa
- skapas
- skapande
- referenser
- kurerad
- Aktuella
- Kunder
- skräddarsy
- datum
- Datum
- Dagar
- dedicerad
- djup
- djupt lärande
- Standard
- demonstrerar
- beroende
- distribuera
- utplacerade
- utplacering
- distributioner
- utformade
- detaljer
- utvecklade
- Utvecklare
- utvecklare
- Utveckling
- olika
- Smälta
- diskutera
- diskuteras
- distribueras
- distribuerad utbildning
- flera
- do
- Hamnarbetare
- gjort
- inte
- ladda ner
- Nedladdningar
- chaufför
- chaufförer
- drivande
- grund
- dynamisk
- varje
- Tidigare
- lätta
- lätt
- lätt
- effekt
- effektivt
- effektivitet
- effektivt
- ansträngning
- antingen
- möjliggöra
- aktiverad
- kryptering
- änden
- Slutpunkt
- ingenjör
- förbättrad
- helt
- Miljö
- epok
- fel
- utvärdera
- utvärdering
- Även
- NÅGONSIN
- Varje
- exempel
- befintliga
- Bygga ut
- förvänta
- erfarenhet
- utforska
- exponentiell
- export
- förlänga
- sträcker
- tyg
- Ansikte
- familj
- snabbare
- snabbast
- Funktioner
- få
- Figur
- Fil
- Filer
- slutlig
- hitta
- Förnamn
- passa
- Flexibilitet
- flytande
- Fokus
- fokusering
- följer
- efter
- För
- Ramverk
- ramar
- från
- fullständigt
- ytterligare
- generera
- genereras
- generering
- generationer
- generativ
- Generativ AI
- skaffa sig
- gå
- GitHub
- Ge
- ger
- Välgörenhet
- GPU
- GPUs
- Grupp
- Tillväxt
- vägleda
- Har
- har
- he
- tung
- tunga lyft
- hjälpa
- hjälper
- högpresterande
- högre
- högsta
- hans
- innehar
- värd
- värd
- Hur ser din drömresa ut
- Men
- html
- http
- HTTPS
- Nav
- Hundratals
- Hybrid
- ID
- Identitet
- if
- illustrerar
- bild
- bilder
- genomföra
- genomförande
- importera
- förbättra
- förbättras
- förbättring
- förbättringar
- förbättra
- in
- innefattar
- ingår
- innefattar
- Inklusive
- Öka
- ökande
- oberoende
- industrier
- Infrastruktur
- ingång
- installera
- installerad
- installera
- exempel
- istället
- instruktioner
- integrerar
- Intel
- Intelligens
- in
- Investeringar
- IP
- ironi
- IT
- DESS
- Lediga jobb
- jpg
- json
- Nyckel
- etikett
- språk
- Large
- storskalig
- större
- Latens
- senaste
- senaste släppningen
- lansera
- Leads
- inlärning
- vänster
- bibliotek
- Bibliotek
- lyft
- tycka om
- Begränsad
- linje
- linux
- Lista
- läsa in
- lokalt
- belägen
- låst
- log
- logga in
- förlust
- lägre
- lägst
- Maskinen
- maskininlärning
- bibehålla
- göra
- Framställning
- hantera
- förvaltade
- många
- matte
- max
- Maj..
- Möt
- medlem
- Minne
- går samman
- metadata
- metod
- Metrics
- miljon
- ML
- MLOps
- Mode
- modell
- modeller
- Moduler
- månader
- mer
- rörliga
- multipel
- namn
- Natural
- Naturlig språkbehandling
- nödvändigt för
- Behöver
- behövs
- behov
- negativ
- nät
- nätverk
- Neutral
- Nya
- Nya funktioner
- Ny teknik
- Nästa
- noder
- Anmärkningar
- Lägga märke till..
- nu
- Nvidia
- mål
- of
- offensiv
- erbjudanden
- erbjuda
- Erbjudanden
- on
- ONE
- öppen källkod
- öppnas
- operativa
- optimering
- optimerad
- Tillbehör
- or
- orkestrering
- organisatoriska
- OS
- Övriga
- Övrigt
- vår
- ut
- produktion
- utanför
- egen
- paket
- förpackade
- parametrar
- del
- Lappa
- Patching
- prestanda
- tillstånd
- behörigheter
- Phoenix
- plocka
- plockade
- rörledning
- plattform
- plato
- Platon Data Intelligence
- PlatonData
- snälla du
- Punkt
- Strategier
- policy
- Populära
- Möjligheterna
- Inlägg
- inlägg
- drivs
- den mäktigaste
- förutse
- förutsägelse
- Förutsägelser
- Förbered
- förbereda
- förutsättningar
- föregående
- Principal
- Problem
- process
- bearbetning
- processorer
- Produktion
- produktivitet
- Produkter
- projektet
- projekt
- proprietary
- beprövade
- ge
- ger
- allmän
- sätta
- Python
- pytorch
- redo
- senaste
- nyligen
- återkommande
- minska
- region
- register
- regelbundet
- relativ
- frigöra
- pålitlig
- Återstående
- Rapporterad
- kräver
- Obligatorisk
- Krav
- Kräver
- resurs
- respons
- begränsningar
- resultera
- avkastning
- översyn
- Roll
- rot
- Körning
- rinnande
- sagemaker
- SageMaker Inference
- Samma
- Besparingar
- skalbar
- Skala
- scanna
- scikit lära
- omfattning
- göra
- repa
- skript
- §
- sektioner
- säkra
- säkerhet
- se
- väljer
- Val
- skicka
- senior
- känsla
- separat
- tjänar
- service
- Tjänster
- session
- in
- inställningar
- inställning
- sju
- flera
- SHA256
- delas
- skall
- visa
- visade
- visas
- Visar
- signifikant
- Enkelt
- enda
- Storlek
- storlekar
- So
- Mjukvara
- Programvara ingenjör
- lösning
- Lösningar
- några
- Utrymme
- specialiserad
- specialiserat
- specifik
- specifikt
- fart
- hastigheter
- spendera
- Spendera
- Stabilitet
- stapel
- standard
- starta
- igång
- startar
- .
- statistik
- Steg
- Steg
- förvaring
- lagringsalternativ
- strategier
- struktur
- sådana
- stödja
- Som stöds
- Stödjande
- Stöder
- system
- System
- skräddarsydd
- uppgifter
- Teknisk
- tekniker
- Tekniken
- tensorflow
- testa
- testade
- än
- den där
- Smakämnen
- Området
- deras
- Dem
- sedan
- Dessa
- de
- saker
- detta
- fastän?
- Genom
- genomströmning
- djur
- tid
- gånger
- till
- verktyg
- brännaren
- Tåg
- tränad
- Utbildning
- transformator
- transformatorer
- omvandla
- prova
- tweet
- tweets
- två
- Typ
- typer
- typisk
- ubuntu
- under
- förstå
- kommande
- Uppdatering
- uppdaterad
- uppgradera
- uppladdad
- Användning
- användning
- användningsfall
- Begagnade
- användare
- med hjälp av
- verktyg
- värde
- mängd
- olika
- verifiera
- version
- syn
- volym
- sårbarheter
- vill
- we
- webb
- webbservice
- veckor
- vikt
- välkommen
- när
- som
- brett
- kommer
- med
- utan
- Arbete
- arbetsflöde
- fungerar
- skriva
- skrivning
- X
- Om er
- Din
- zephyrnet
- zoner