PyTorch er en maskinlæringsramme (ML), der bruges i vid udstrækning af AWS-kunder til en række forskellige applikationer, såsom computervision, naturlig sprogbehandling, indholdsoprettelse og mere. Med den seneste PyTorch 2.0-udgivelse kan AWS-kunder nu gøre de samme ting, som de kunne med PyTorch 1.x, men hurtigere og i skala med forbedrede træningshastigheder, lavere hukommelsesforbrug og forbedrede distribuerede muligheder. Adskillige nye teknologier inklusive torch.compile, TorchDynamo, AOTAutograd, PrimTorch og TorchInductor er blevet inkluderet i PyTorch2.0-udgivelsen. Henvise til PyTorch 2.0: Vores næste generations udgivelse, der er hurtigere, mere pytonisk og dynamisk som nogensinde for yderligere oplysninger.
Dette indlæg demonstrerer ydeevnen og letheden ved at køre storstilet, højtydende distribueret ML-modeltræning og -implementering ved hjælp af PyTorch 2.0 på AWS. Dette indlæg gennemgår yderligere en trin-for-trin implementering af finjustering af en RobERTa (Robustly Optimized BERT Pretraining Approach) model til sentimentanalyse ved hjælp af AWS Deep Learning AMI'er (AWS DLAMI) og AWS Deep Learning-containere (DLC'er) tændt Amazon Elastic Compute Cloud (Amazon EC2 p4d.24xlarge) med en observeret hastighedsstigning på 42 % ved brug med PyTorch 2.0 torch.compile + bf16 + fusioneret AdamW. Den finjusterede model implementeres derefter på AWS Graviton-baseret C7g EC2 instans på Amazon SageMaker med en observeret hastighed på 10 % sammenlignet med PyTorch 1.13.
Følgende figur viser et præstationsbenchmark for finjustering af en RobERTa-model på Amazon EC2 p4d.24xlarge med AWS PyTorch 2.0 DLAMI + DLC.
Der henvises til Optimeret PyTorch 2.0-inferens med AWS Graviton-processorer for detaljer om AWS Graviton-baserede instansinferens-ydelsesbenchmarks for PyTorch 2.0.
Understøttelse af PyTorch 2.0 på AWS
PyTorch2.0-understøttelse er ikke begrænset til tjenesterne og computeren vist i eksempel use-case i dette indlæg; det strækker sig til mange andre på AWS, som vi diskuterer i dette afsnit.
Forretningskrav
Mange AWS-kunder, på tværs af en række forskellige brancher, transformerer deres forretninger ved at bruge kunstig intelligens (AI), specifikt inden for generativ AI og store sprogmodeller (LLM'er), der er designet til at generere menneskelignende tekst. Disse er dybest set store modeller baseret på deep learning-teknikker, der trænes med hundredvis af milliarder af parametre. Væksten i modelstørrelser øger træningstiden fra dage til uger og endda måneder i nogle tilfælde. Dette driver en eksponentiel stigning i uddannelses- og inferensomkostninger, som mere end nogensinde kræver et framework som PyTorch 2.0 med indbygget understøttelse af accelereret modeltræning og den optimerede infrastruktur af AWS, der er skræddersyet til de specifikke arbejdsbelastninger og præstationsbehov.
Valg af computer
AWS giver PyTorch 2.0-understøttelse på det bredeste udvalg af kraftfuld computer, højhastighedsnetværk og skalerbare højtydende lagringsmuligheder, som du kan bruge til ethvert ML-projekt eller applikation og tilpasse til dine præstations- og budgetkrav. Dette er manifesteret i diagrammet i næste afsnit; i det nederste niveau tilbyder vi et bredt udvalg af computerinstanser drevet af AWS Graviton-, Nvidia-, AMD- og Intel-processorer.
Til modelimplementeringer kan du bruge ARM-baserede processorer såsom den nyligt annoncerede AWS Graviton-baserede instans, der giver inferensydelse for PyTorch 2.0 med op til 3.5 gange hastigheden for Resnet50 sammenlignet med den tidligere PyTorch-udgivelse og op til 1.4 gange hastighed for BERT, hvilket gør AWS Graviton-baserede instanser til de hurtigste computeroptimerede instanser på AWS til CPU-baserede modelinferensløsninger.
Valg af ML-tjenester
For at bruge AWS compute kan du vælge fra et bredt sæt af globale cloud-baserede tjenester til ML-udvikling, databehandling og workflow-orkestrering. Dette valg giver dig mulighed for at tilpasse dig din virksomhed og cloud-strategier og køre PyTorch 2.0-job på den platform, du vælger. For eksempel, hvis du har lokale begrænsninger eller eksisterende investeringer i open source-produkter, kan du bruge Amazon EC2, AWS ParallelCluster eller AWS UltraCluster at køre distribueret træningsbelastning baseret på en selvstyret tilgang. Du kan også bruge en fuldt administreret service som SageMaker til en omkostningsoptimeret, fuldt administreret og produktionsskala træningsinfrastruktur. SageMaker integrerer også med forskellige MLOps-værktøjer, som giver dig mulighed for at skalere din modelimplementering, reducere slutningsomkostninger, styre modeller mere effektivt i produktionen og reducere driftsbyrden.
På samme måde, hvis du har eksisterende Kubernetes-investeringer, kan du også bruge Amazon Elastic Kubernetes Service (Amazon EKS) og Kubeflow på AWS at implementere en ML-pipeline til distribueret træning eller bruge en AWS-native container orkestreringstjeneste som f.eks Amazon Elastic Container Service (Amazon ECS) til modeltræning og implementeringer. Mulighederne for at bygge din ML-platform er ikke begrænset til disse tjenester; du kan vælge og vrage afhængigt af dine organisatoriske krav til dine PyTorch 2.0-job.
Aktivering af PyTorch 2.0 med AWS DLAMI og AWS DLC
For at bruge den førnævnte stak af AWS-tjenester og kraftfuld databehandling, skal du installere en optimeret kompileret version af PyTorch2.0-rammeværket og dets nødvendige afhængigheder, hvoraf mange er uafhængige projekter, og teste dem fra ende til anden. Du har muligvis også brug for CPU-specifikke biblioteker til accelererede matematiske rutiner, GPU-specifikke biblioteker til accelererede matematik og inter-GPU-kommunikationsrutiner og GPU-drivere, der skal justeres med den GPU-kompiler, der bruges til at kompilere GPU-bibliotekerne. Hvis dine job kræver storstilet multi-node træning, har du brug for et optimeret netværk, der kan give den laveste latens og højeste gennemløb. Når du har bygget din stak, skal du regelmæssigt scanne og lappe dem for sikkerhedssårbarheder og genopbygge og genteste stakken efter hver opgradering af framework-versionen.
AWS hjælper med at reducere dette tunge løft ved at tilbyde et udvalgt og sikkert sæt rammer, afhængigheder og værktøjer til at accelerere dyb læring i skyen. AWS DLAMI'er , AWS DLC'er. Disse præbyggede og testede maskinbilleder og containere er optimeret til dyb læring på EC2 Accelerated Computing Instance-typer, hvilket giver dig mulighed for at skalere ud til flere noder for distribuerede arbejdsbelastninger mere effektivt og nemt. Det inkluderer en præbygget Elastisk stofadapter (EFA), Nvidia GPU-stak og mange deep learning-rammer (TensorFlow, MXNet og PyTorch med seneste udgivelse af 2.0) til højtydende distribueret deep learning-træning. Du behøver ikke bruge tid på at installere og fejlfinde deep learning-software og -drivere eller opbygge ML-infrastruktur, og du behøver heller ikke at pådrage dig de tilbagevendende omkostninger ved at patche disse billeder for sikkerhedssårbarheder eller genskabe billederne efter hver ny opgradering af framework-versionen. I stedet kan du fokusere på den højere værdiskabende indsats ved at træne jobs i skala på kortere tid og hurtigere gentage dine ML-modeller.
Løsningsoversigt
I betragtning af, at træning i GPU og slutning om CPU er et populært case for AWS-kunder, har vi inkluderet som en del af dette indlæg en trin-for-trin implementering af en hybrid arkitektur (som vist i det følgende diagram). Vi vil udforske det mulige kunst og bruge en P4 EC2-instans med BF16-understøttelse initialiseret med Base GPU DLAMI inklusive NVIDIA-drivere, CUDA, NCCL, EFA-stack og PyTorch2.0 DLC til at finjustere en RobERTa-sentimentanalysemodel der giver dig kontrol og fleksibilitet til at bruge alle open source eller proprietære biblioteker. Så bruger vi SageMaker til en fuldt administreret model-hosting-infrastruktur til at hoste vores model på AWS Graviton3-baseret C7g-forekomster. Vi valgte C7g på SageMaker, fordi det har vist sig at reducere slutningsomkostninger med op til 50 % i forhold til sammenlignelige EC2-tilfælde for inferens i realtid på SageMaker. Følgende diagram illustrerer denne arkitektur.
Modeltræningen og -hostingen i dette use case består af følgende trin:
- Start en GPU DLAMI-baseret EC2 Ubuntu-instans i din VPC og opret forbindelse til din instans ved hjælp af SSH.
- Når du har logget ind på din EC2-instans, skal du downloade AWS PyTorch 2.0 DLC.
- Kør din DLC-beholder med et modeltræningsscript for at finjustere RobERTa-modellen.
- Når modeltræningen er færdig, skal du pakke den gemte model, inferensscripts og nogle få metadatafiler i en tar-fil, som SageMaker inference kan bruge og uploade modelpakken til en Amazon Simple Storage Service (Amazon S3) spand.
- Implementer modellen ved hjælp af SageMaker og opret et HTTPS-slutningsendepunkt. SageMaker-slutpunktet indeholder en belastningsbalancer og en eller flere forekomster af din inferensbeholder i forskellige tilgængelighedszoner. Du kan implementere enten flere versioner af den samme model eller helt forskellige modeller bag dette enkelte slutpunkt. I dette eksempel er vi vært for en enkelt model.
- Kald dit modelslutpunkt ved at sende det testdata og bekræft inferensoutputtet.
I de følgende afsnit viser vi finjustering af en RobERTa-model til sentimentanalyse. RoBERTa er udviklet af Facebook AI, der forbedrer den populære BERT-model ved at ændre nøglehyperparametre og fortræning på et større korpus. Dette fører til forbedret ydeevne sammenlignet med vanilje BERT.
Vi bruger transformers bibliotek af Hugging Face for at få RoBERTa-modellen fortrænet på cirka 124 millioner tweets, og vi finjusterer den på Twitter-datasættet til sentimentanalyse.
Forudsætninger
Sørg for, at du opfylder følgende forudsætninger:
- Du har en AWS-konto.
- Sørg for, at du er i
us-west-2
Region for at køre dette eksempel. (Dette eksempel er testet ius-west-2
; du kan dog køre i en hvilken som helst anden region.) - Lav en rolle med navnet
sagemakerrole
. Tilføj administrerede politikkerAmazonSageMakerFullAccess
,AmazonS3FullAccess
at give SageMaker adgang til S3 spande. - Opret en EC2-rolle med navnet
ec2_role
. Brug følgende tilladelsespolitik:
1. Start din udviklingsforekomst
Vi opretter en p4d.24xlarge instans, der tilbyder 8 NVIDIA A100 Tensor Core GPU'er i us-west-2
:
Når du vælger AMI, skal du følge udgivelses noter for at køre denne kommando ved hjælp af AWS kommandolinjegrænseflade (AWS CLI) for at finde det AMI-id, der skal bruges i us-west-2
:
Sørg for, at størrelsen af gp3-rodvolumenet er 200 GiB.
EBS-volumenkryptering er ikke aktiveret som standard. Overvej at ændre dette, når du flytter denne løsning til produktion.
2. Download en Deep Learning Container
AWS DLC'er er tilgængelige som Docker-billeder i Amazon Elastic Container Registry Public, en administreret AWS-containerimage-registreringstjeneste, der er sikker, skalerbar og pålidelig. Hvert Docker-billede er bygget til træning eller slutning om en specifik deep learning framework-version, Python-version, med CPU- eller GPU-understøttelse. Vælg PyTorch 2.0-rammeværket fra listen over tilgængelige Deep Learning Containers billeder.
Udfør følgende trin for at downloade din DLC:
en. SSH til instansen. Som standard åbner sikkerhedsgruppen, der bruges med EC2, SSH-porten for alle. Overvej venligst dette, hvis du flytter denne løsning til produktion:
Som standard åbner sikkerhedsgruppen, der bruges med Amazon EC2, SSH-porten for alle. Overvej at ændre dette, hvis du flytter denne løsning til produktion.
b. Indstil de miljøvariabler, der kræves for at køre de resterende trin af denne implementering:
Amazon ECR understøtter offentlige billedarkiver med ressourcebaserede tilladelser ved hjælp af AWS identitets- og adgangsstyring (IAM), så specifikke brugere eller tjenester kan få adgang til billeder.
c. Log ind på DLC-registret:
d. Træk den nyeste PyTorch 2.0-beholder med GPU-understøttelse ind us-west-2
Hvis du får fejlen "ingen plads tilbage på enheden", skal du sørge for Forøg EC2 EBS volumen til 200 GiB og derefter udvide Linux-filsystemet.
3. Klon de seneste scripts tilpasset PyTorch 2.0
Klon scripts med følgende kode:
Fordi vi bruger Hugging Face transformers API med den seneste version 4.28.1, har den allerede aktiveret PyTorch 2.0-understøttelse. Vi tilføjede følgende argument til træner-API'en i train_sentiment.py
for at aktivere nye PyTorch 2.0-funktioner:
- Torch kompilering – Oplev en gennemsnitlig hastighed på 43 % på Nvidia A100 GPU'er med en enkelt ændringslinje.
- BF16 datatype – Ny datatypeunderstøttelse (Brain Floating Point) til Ampere eller nyere GPU'er.
- Sammensmeltet AdamW optimizer – Sammensmeltet AdamW-implementering for yderligere at fremskynde træningen. Denne stokastiske optimeringsmetode modificerer den typiske implementering af vægtfald i Adam ved at afkoble vægtfald fra gradientopdateringen.
4. Byg et nyt Docker-billede med afhængigheder
Vi udvider det forudbyggede PyTorch 2.0 DLC-billede for at installere Hugging Face-transformeren og andre biblioteker, som vi har brug for for at finjustere vores model. Dette giver dig mulighed for at bruge de medfølgende testede og optimerede deep learning biblioteker og indstillinger uden at skulle oprette et billede fra bunden. Se følgende kode:
5. Begynd at træne med at bruge beholderen
Kør følgende Docker-kommando for at begynde at finjustere modellen på tweet_eval
sentiment datasæt. Vi bruger Docker-beholderargumenterne (størrelse på delt hukommelse, maksimal låst hukommelse og stakstørrelse) anbefalet af Nvidia til dyb læring arbejdsbelastninger.
Du skal forvente følgende output. Scriptet downloader først TweetEval-datasættet, som består af syv heterogene opgaver i Twitter, alle indrammet som multi-class tweet-klassificering. Opgaverne omfatter ironi, had, stødende, holdning, emoji, følelser og følelser.
Scriptet downloader derefter basismodellen og starter finjusteringsprocessen. Trænings- og evalueringsmålinger rapporteres i slutningen af hver epoke.
Resultatstatistik
Med PyTorch 2.0 og det seneste Hugging Face-transformatorbibliotek 4.28.1 observerede vi en hastighedsstigning på 42 % på en enkelt p4d.24xlarge-instans med 8 A100 40GB GPU'er. Ydeevneforbedringer kommer fra en kombination af torch.compile, BF16-datatypen og den sammensmeltede AdamW-optimering. Følgende kode er det endelige resultat af to træningsløb med og uden nye funktioner:
6. Test den trænede model lokalt, før du forbereder SageMaker-inferens
Du kan finde følgende filer under $ml_working_dir/saved_model/
efter træning:
Lad os sørge for, at vi kan køre inferens lokalt, før vi forbereder SageMaker-inferens. Vi kan indlæse den gemte model og køre inferens lokalt ved hjælp af test_trained_model.py
manuskript:
Du skal forvente følgende output med inputtet "Covid-sager stiger hurtigt!":
7. Forbered modeltarballen til SageMaker-inferens
Under den mappe, hvor modellen er placeret, lav en ny mappe kaldet code
:
Opret filen i den nye mappe inference.py
og tilføje følgende til det:
I sidste ende bør du have følgende mappestruktur:
Modellen er klar til at blive pakket og uploadet til Amazon S3 til brug med SageMaker inference:
8. Implementer modellen på en SageMaker AWS Graviton-instans
Nye generationer af CPU'er tilbyder en væsentlig forbedring af ydeevnen i ML-inferens på grund af specialiserede indbyggede instruktioner. I dette tilfælde bruger vi SageMaker fuldt administrerede hosting-infrastruktur med AWS Graviton3-baserede C7g-instanser. AWS har også målt op til 50 % omkostningsbesparelser for PyTorch-inferens med AWS Graviton3-baserede EC2 C7g-instanser på tværs af Torch Hub ResNet50 og flere Hugging Face-modeller i forhold til sammenlignelige EC2-instanser.
For at implementere modellerne til AWS Graviton-instanser bruger vi AWS DLC'er, der understøtter PyTorch 2.0 og TorchServe 0.8.0, eller du kan medbring selv containere der er kompatible med ARMv8.2-arkitekturen.
Vi bruger den model, vi trænede tidligere: s3://<your-s3-bucket>/twitter-roberta-base-sentiment-latest.tar.gz
. Hvis du ikke har brugt SageMaker før, så anmeld Kom godt i gang med Amazon SageMaker.
For at starte skal du sørge for, at SageMaker-pakken er opdateret:
Fordi dette er et eksempel, skal du oprette en fil kaldet start_endpoint.py
og tilføje følgende kode. Dette vil være Python-scriptet til at starte et SageMaker-slutningsendepunkt med tilstanden:
Vi bruger ml.c7g.4xlarge til forekomsten og henter PT 2.0 med et billedomfang inference_graviton
. Dette er vores AWS Graviton3-instans.
Dernæst opretter vi filen, der kører forudsigelsen. Vi laver disse som separate scripts, så vi kan køre forudsigelserne så mange gange, som vi vil. skab predict.py
med følgende kode:
Med de genererede scripts kan vi nu starte et slutpunkt, lave forudsigelser mod slutpunktet og rydde op, når vi er færdige:
9. Ryd op
Til sidst vil vi rydde op fra dette eksempel. Opret cleanup.py og tilføj følgende kode:
Konklusion
AWS DLAMI'er og DLC'er er blevet standarden for at køre deep learning-arbejdsbelastninger på et bredt udvalg af computer- og ML-tjenester på AWS. Ud over at bruge rammespecifikke DLC'er på AWS ML-tjenester kan du også bruge et enkelt framework på Amazon EC2, som fjerner de tunge løft, der er nødvendige for, at udviklere kan bygge og vedligeholde deep learning-applikationer. Henvise til Release Notes for DLAMI , Tilgængelige Deep Learning Containers-billeder at komme i gang.
Dette indlæg viste en af mange muligheder for at træne og betjene din næste model på AWS og diskuterede flere formater, som du kan bruge for at opfylde dine forretningsmål. Prøv dette eksempel, eller brug vores andre AWS ML-tjenester til at udvide dataproduktiviteten for din virksomhed. Vi har inkluderet et simpelt sentimentanalyseproblem, så kunder, der er nye til ML, kan forstå, hvor nemt det er at komme i gang med PyTorch 2.0 på AWS. Vi vil dække mere avancerede use cases, modeller og AWS-teknologier i kommende blogindlæg.
Om forfatterne
Kanwaljit Khurmi er Principal Solutions Architect hos Amazon Web Services. Han arbejder sammen med AWS-kunderne for at yde vejledning og teknisk assistance, der hjælper dem med at forbedre værdien af deres løsninger, når de bruger AWS. Kanwaljit har specialiseret sig i at hjælpe kunder med container- og maskinlæringsapplikationer.
Mike Schneider er systemudvikler med base i Phoenix AZ. Han er medlem af Deep Learning-beholdere, der understøtter forskellige Framework-beholderbilleder, for at inkludere Graviton Inference. Han er dedikeret til infrastruktureffektivitet og stabilitet.
Lai Wei er senior softwareingeniør hos Amazon Web Services. Han fokuserer på at opbygge brugervenlige, højtydende og skalerbare deep learning-rammer til at accelerere distribueret modeltræning. Uden for arbejdet nyder han at tilbringe tid med sin familie, vandreture og stå på ski.
- SEO Powered Content & PR Distribution. Bliv forstærket i dag.
- PlatoAiStream. Web3 Data Intelligence. Viden forstærket. Adgang her.
- Udmøntning af fremtiden med Adryenn Ashley. Adgang her.
- Køb og sælg aktier i PRE-IPO-virksomheder med PREIPO®. Adgang her.
- Kilde: https://aws.amazon.com/blogs/machine-learning/part-1-build-high-performance-ml-models-using-pytorch-2-0-on-aws/
- :har
- :er
- :ikke
- :hvor
- $OP
- 1
- 10
- 100
- 11
- 12
- 13
- 14
- 15 %
- 16
- 17
- 20
- 200
- 23
- 25
- 26 %
- 28
- 31
- 7
- 8
- 9
- a
- fremskynde
- accelereret
- accelererende
- Acceptere
- adgang
- tværs
- Handling
- Adam
- tilføje
- tilføjet
- vedtage
- fremskreden
- Efter
- mod
- AI
- tilpasse
- justeret
- Alle
- tillade
- tillade
- tillader
- sammen
- allerede
- også
- Amazon
- Amazon EC2
- Amazon Web Services
- AMD
- beløb
- an
- analyse
- analysere
- ,
- annoncerede
- En anden
- enhver
- api
- Anvendelse
- applikationer
- tilgang
- cirka
- arkitektur
- ER
- OMRÅDE
- argument
- argumenter
- kunstig
- kunstig intelligens
- Kunstig intelligens (AI)
- AS
- Assistance
- At
- tilgængelighed
- til rådighed
- gennemsnit
- AWS
- swing
- bund
- baseret
- I bund og grund
- BE
- fordi
- bliver
- været
- før
- begynde
- bag
- benchmark
- Benchmarks
- Big
- milliarder
- BIN
- Blog
- Blogindlæg
- krop
- Bund
- Brain
- bred
- budget
- bygge
- Bygning
- bygget
- indbygget
- byrde
- virksomhed
- virksomheder
- men
- by
- ringe
- kaldet
- ringer
- CAN
- kapaciteter
- tilfælde
- tilfælde
- CD
- lave om
- skiftende
- valg
- Vælg
- klassificering
- kunde
- Cloud
- kode
- KOM
- kombination
- kommer
- Kommunikation
- sammenlignelig
- sammenlignet
- kompatibel
- fuldføre
- Compute
- computer
- Computer Vision
- computing
- Tilslut
- Overvej
- består
- Konsol
- Container
- Beholdere
- indhold
- indholdsskabelse
- kontrol
- Core
- Koste
- omkostningsbesparelser
- Omkostninger
- kunne
- dækker
- skabe
- oprettet
- skabelse
- Legitimationsoplysninger
- kurateret
- Nuværende
- Kunder
- tilpasse
- data
- Dato
- Dage
- dedikeret
- dyb
- dyb læring
- Standard
- demonstrerer
- Afhængigt
- indsætte
- indsat
- implementering
- implementeringer
- konstrueret
- detaljer
- udviklet
- Udvikler
- udviklere
- Udvikling
- forskellige
- Fordøje
- diskutere
- drøftet
- distribueret
- distribueret træning
- forskelligartede
- do
- Docker
- færdig
- Dont
- downloade
- downloads
- driver
- drivere
- kørsel
- grund
- dynamisk
- hver
- tidligere
- lette
- nemt
- let
- effekt
- effektivt
- effektivitet
- effektivt
- indsats
- enten
- muliggøre
- aktiveret
- kryptering
- ende
- Endpoint
- ingeniør
- forbedret
- helt
- Miljø
- epoke
- fejl
- evaluere
- evaluering
- Endog
- NOGENSINDE
- Hver
- eksempel
- eksisterende
- Udvid
- forvente
- erfaring
- udforske
- eksponentiel
- eksport
- udvide
- udvider
- stof
- Ansigtet
- familie
- hurtigere
- hurtigste
- Funktionalitet
- få
- Figur
- File (Felt)
- Filer
- endelige
- Finde
- Fornavn
- passer
- Fleksibilitet
- flydende
- Fokus
- fokusering
- følger
- efter
- Til
- Framework
- rammer
- fra
- fuldt ud
- yderligere
- generere
- genereret
- generation
- generationer
- generative
- Generativ AI
- få
- Git
- GitHub
- Giv
- giver
- Global
- GPU
- GPU'er
- gruppe
- Vækst
- vejledning
- Have
- have
- he
- tunge
- tunge løft
- hjælpe
- hjælper
- Høj ydeevne
- højere
- højeste
- hans
- besidder
- host
- Hosting
- Hvordan
- Men
- HTML
- http
- HTTPS
- Hub
- Hundreder
- Hybrid
- ID
- Identity
- if
- illustrerer
- billede
- billeder
- gennemføre
- implementering
- importere
- Forbedre
- forbedret
- forbedringer
- forbedring
- in
- omfatter
- medtaget
- omfatter
- Herunder
- Forøg
- stigende
- uafhængig
- industrier
- Infrastruktur
- indgang
- installere
- installeret
- installation
- instans
- i stedet
- anvisninger
- Integrerer
- Intel
- Intelligens
- ind
- Investeringer
- IP
- ironi
- IT
- ITS
- Karriere
- jpg
- json
- Nøgle
- etiket
- Sprog
- stor
- storstilet
- større
- Latency
- seneste
- seneste udgivelse
- lancere
- Leads
- læring
- til venstre
- biblioteker
- Bibliotek
- løft
- ligesom
- Limited
- Line (linje)
- linux
- Liste
- belastning
- lokalt
- placeret
- låst
- log
- Logge på
- off
- lavere
- laveste
- maskine
- machine learning
- vedligeholde
- lave
- Making
- administrere
- lykkedes
- mange
- matematik
- max
- Kan..
- Mød
- medlem
- Hukommelse
- fletninger
- Metadata
- metode
- Metrics
- million
- ML
- MLOps
- tilstand
- model
- modeller
- Moduler
- måned
- mere
- flytning
- flere
- navn
- Natural
- Natural Language Processing
- nødvendig
- Behov
- behov
- behov
- negativ
- netværk
- netværk
- Neutral
- Ny
- Nye funktioner
- Nye teknologier
- næste
- noder
- Noter
- Varsel..
- nu
- Nvidia
- målsætninger
- of
- offensiv
- tilbyde
- tilbyde
- Tilbud
- on
- ONE
- open source
- åbner
- operationelle
- optimering
- optimeret
- Indstillinger
- or
- orkestrering
- organisatorisk
- OS
- Andet
- Andre
- vores
- ud
- output
- uden for
- egen
- pakke
- emballeret
- parametre
- del
- patch
- lappe
- ydeevne
- tilladelse
- Tilladelser
- phoenix
- pick
- plukket
- pipeline
- perron
- plato
- Platon Data Intelligence
- PlatoData
- Vær venlig
- Punkt
- politikker
- politik
- Populær
- muligheder
- Indlæg
- Indlæg
- strøm
- vigtigste
- forudsige
- forudsigelse
- Forudsigelser
- Forbered
- forberede
- forudsætninger
- tidligere
- Main
- Problem
- behandle
- forarbejdning
- processorer
- produktion
- produktivitet
- Produkter
- projekt
- projekter
- proprietære
- gennemprøvet
- give
- giver
- offentlige
- sætte
- Python
- pytorch
- klar
- nylige
- for nylig
- tilbagevendende
- reducere
- region
- register
- regelmæssigt
- relative
- frigive
- pålidelig
- resterende
- rapporteret
- kræver
- påkrævet
- Krav
- Kræver
- ressource
- svar
- restriktioner
- resultere
- afkast
- gennemgå
- roller
- rod
- Kør
- kører
- sagemaker
- SageMaker Inference
- samme
- Besparelser
- skalerbar
- Scale
- scanne
- scikit-lære
- rækkevidde
- score
- ridse
- scripts
- Sektion
- sektioner
- sikker
- sikkerhed
- se
- udvælgelse
- valg
- afsendelse
- senior
- stemningen
- adskille
- tjener
- tjeneste
- Tjenester
- Session
- sæt
- indstillinger
- setup
- syv
- flere
- SHA256
- delt
- bør
- udstillingsvindue
- viste
- vist
- Shows
- signifikant
- Simpelt
- enkelt
- Størrelse
- størrelser
- So
- Software
- Software Engineer
- løsninger
- Løsninger
- nogle
- Space
- specialiserede
- specialiseret
- specifikke
- specifikt
- hastighed
- hastigheder
- tilbringe
- udgifterne
- Stabilitet
- stable
- standard
- starte
- påbegyndt
- starter
- Statement
- statistik
- Trin
- Steps
- opbevaring
- opbevaringsmuligheder
- strategier
- struktur
- sådan
- support
- Understøttet
- Støtte
- Understøtter
- systemet
- Systemer
- skræddersyet
- opgaver
- Teknisk
- teknikker
- Teknologier
- tensorflow
- prøve
- afprøvet
- end
- at
- Området
- deres
- Them
- derefter
- Disse
- de
- ting
- denne
- selvom?
- Gennem
- kapacitet
- tier
- tid
- gange
- til
- værktøjer
- fakkel
- Tog
- uddannet
- Kurser
- transformer
- transformers
- omdanne
- prøv
- tweet
- tweets
- to
- typen
- typer
- typisk
- Ubuntu
- under
- forstå
- kommende
- Opdatering
- opdateret
- opgradering
- uploadet
- Brug
- brug
- brug tilfælde
- anvendte
- brugere
- ved brug af
- nytte
- værdi
- række
- forskellige
- verificere
- udgave
- vision
- bind
- Sårbarheder
- ønsker
- we
- web
- webservices
- uger
- vægt
- velkommen
- hvornår
- som
- bredt
- vilje
- med
- uden
- Arbejde
- workflow
- virker
- skriver
- skrivning
- X
- Du
- Din
- zephyrnet
- zoner