PyTorch on koneoppimiskehys (ML), jota AWS-asiakkaat käyttävät laajasti erilaisissa sovelluksissa, kuten tietokonenäössä, luonnollisen kielen käsittelyssä, sisällön luomisessa ja muissa sovelluksissa. Äskettäisen PyTorch 2.0 -julkaisun myötä AWS-asiakkaat voivat nyt tehdä samoja asioita kuin PyTorch 1.x:n kanssa, mutta nopeammin ja mittakaavassa parannetulla harjoitusnopeuksilla, pienemmällä muistinkäytöllä ja parannetuilla hajautetuilla ominaisuuksilla. PyTorch2.0-julkaisuun on sisällytetty useita uusia teknologioita, kuten torch.compile, TorchDynamo, AOTAutograd, PrimTorch ja TorchInductor. Viitata PyTorch 2.0: Seuraavan sukupolven julkaisumme, joka on nopeampi, pytoonisempi ja dynaamisempi kuin koskaan lisätietoja.
Tämä viesti osoittaa suorituskyvyn ja helppouden suorittaa laajamittainen, korkean suorituskyvyn hajautettu ML-mallin koulutus ja käyttöönotto PyTorch 2.0:lla AWS:ssä. Tässä viestissä käydään läpi vaiheittaisen RoBERTa-mallin (Robustly Optimized BERT Pretraining Approach) hienosäätäminen mielialan analysointiin käyttämällä AWS Syvän oppimisen AMI: t (AWS DLAMI) ja AWS Deep Learning Containers (DLC:t) päällä Amazonin elastinen laskentapilvi (Amazon EC2 p4d.24xlarge) havaittu 42 % nopeus käytettäessä PyTorch 2.0 torch.compile + bf16 + sulatettu AdamW kanssa. Hienosäädetty malli otetaan sitten käyttöön AWS Graviton-pohjainen C7g EC2 -esiintymä päällä Amazon Sage Maker havaittu 10 %:n nopeus verrattuna PyTorch 1.13:een.
Seuraava kuva näyttää suorituskyvyn vertailuarvon RoBERTa-mallin hienosäädöstä Amazon EC2 p4d.24xlarge -sovelluksella AWS PyTorch 2.0 DLAMI + DLC:llä.
Mainita Optimoitu PyTorch 2.0 -päätelmä AWS Graviton -suorittimilla Lisätietoja PyTorch 2.0:n AWS Graviton -pohjaisista ilmentymien päätelmien suorituskyvyn vertailuarvoista.
Tuki PyTorch 2.0:lle AWS:ssä
PyTorch2.0-tuki ei rajoitu palveluihin ja laskentaan, jotka on esitetty tässä viestissä esimerkissä käyttötapauksessa; se ulottuu moniin muihin AWS-palveluihin, joista keskustelemme tässä osiossa.
Liiketoiminnan vaatimus
Monet AWS-asiakkaat eri toimialoilla muuttavat liiketoimintaansa käyttämällä tekoälyä (AI), erityisesti generatiivisten tekoälyjen ja suurten kielimallien (LLM) alalla, jotka on suunniteltu luomaan ihmisen kaltaista tekstiä. Nämä ovat pohjimmiltaan suuria malleja, jotka perustuvat syväoppimistekniikoihin, joita koulutetaan satojen miljardien parametrien avulla. Mallikokojen kasvu lisää harjoitusaikaa päivistä viikkoihin ja joissain tapauksissa jopa kuukausiin. Tämä kasvattaa koulutus- ja päättelykuluja eksponentiaalisesti, mikä vaatii enemmän kuin koskaan PyTorch 2.0:n kaltaisen viitekehyksen, jossa on sisäänrakennettu tuki nopeutetulle mallikoulutukselle ja optimoitu AWS-infrastruktuuri, joka on räätälöity tiettyihin työkuormiin ja suorituskykytarpeisiin.
Laskennan valinta
AWS tarjoaa PyTorch 2.0 -tuen laajimmassa valikoimassa tehokkaita laskentavaihtoehtoja, nopeita verkkoyhteyksiä ja skaalattavia ja suorituskykyisiä tallennusvaihtoehtoja, joita voit käyttää missä tahansa ML-projektissa tai -sovelluksessa ja mukauttaa suorituskyvyn ja budjettivaatimustesi mukaan. Tämä käy ilmi seuraavan osan kaaviosta; alimmalla tasolla tarjoamme laajan valikoiman AWS Graviton-, Nvidia-, AMD- ja Intel-suorittimilla toimivia laskentatapauksia.
Mallin käyttöönotoissa voit käyttää ARM-pohjaisia prosessoreita, kuten äskettäin julkistettua AWS Graviton -pohjaista ilmentymää, joka tarjoaa päättelysuorituskyvyn PyTorch 2.0:lle jopa 3.5-kertaisella nopeudella Resnet50:lle edelliseen PyTorch-julkaisuun verrattuna ja jopa 1.4-kertaisella nopeudella. nopeus BERT:lle, mikä tekee AWS Graviton -pohjaisista ilmentymistä AWS:n nopeimpia laskentaan optimoituja ilmentymiä prosessoripohjaisille mallin päättelyratkaisuille.
ML-palveluiden valinta
Käyttääksesi AWS-laskentaa voit valita laajasta joukosta maailmanlaajuisia pilvipohjaisia palveluita ML-kehitykseen, laskemiseen ja työnkulun organisointiin. Tämän valinnan avulla voit yhdenmukaistaa liiketoiminta- ja pilvistrategioitasi ja suorittaa PyTorch 2.0 -töitä valitsemallasi alustalla. Jos sinulla on esimerkiksi paikallisia rajoituksia tai sijoituksia avoimen lähdekoodin tuotteisiin, voit käyttää Amazon EC2:ta, AWS ParallelClustertai AWS UltraCluster suorittaa hajautettuja koulutuskuormia itseohjautuvan lähestymistavan perusteella. Voit myös käyttää täysin hallittua palvelua, kuten SageMaker, kustannusoptimoidun, täysin hallitun ja tuotantolaajuisen koulutusinfrastruktuurin luomiseen. SageMaker integroituu myös erilaisiin MLOps-työkaluihin, joiden avulla voit skaalata mallin käyttöönottoa, vähentää päättelykuluja, hallita malleja tehokkaammin tuotannossa ja vähentää toiminnallista taakkaa.
Vastaavasti, jos sinulla on olemassa olevia Kubernetes-sijoituksia, voit myös käyttää Amazonin elastisten kuberneettien palvelu (Amazon EKS) ja Kubeflow AWS:ssä toteuttaa ML-putki hajautettua koulutusta varten tai käyttää AWS-alkuperäistä konttiorkesteripalvelua, kuten Amazonin elastisten säiliöiden palvelu (Amazon ECS) mallikoulutukseen ja käyttöönottoihin. ML-alustan rakentamisvaihtoehdot eivät rajoitu näihin palveluihin; voit valita ja valita PyTorch 2.0 -työsi organisaatiovaatimusten mukaan.
PyTorch 2.0:n käyttöönotto AWS DLAMI:n ja AWS DLC:n kanssa
Jotta voit käyttää edellä mainittua AWS-palvelupinoa ja tehokasta laskentaa, sinun on asennettava optimoitu käännetty versio PyTorch2.0-kehyksestä ja sen vaadituista riippuvuuksista, joista monet ovat itsenäisiä projekteja, ja testattava ne päästä päähän. Saatat tarvita myös prosessorikohtaisia kirjastoja nopeutettuja matematiikkarutiineja varten, grafiikkasuoritinkohtaisia kirjastoja nopeutettuja matematiikkaa ja grafiikkasuorittajien välisiä viestintärutiineja varten sekä GPU-ajureita, jotka on linjattava GPU-kirjastojen kääntämiseen käytettävän GPU-kääntäjän kanssa. Jos työsi vaativat laajamittaista monisolmukoulutusta, tarvitset optimoidun verkon, joka voi tarjota pienimmän latenssin ja suurimman suorituskyvyn. Kun olet rakentanut pinon, sinun on tarkistettava ja korjattava ne säännöllisesti tietoturva-aukkojen varalta sekä rakennettava ja testattava pino uudelleen jokaisen kehysversion päivityksen jälkeen.
AWS auttaa vähentämään tätä raskautta tarjoamalla kuratoidun ja turvallisen joukon kehyksiä, riippuvuuksia ja työkaluja, jotka nopeuttavat syvällistä oppimista pilvessä. AWS DLAMIt ja AWS DLC:t. Nämä valmiiksi rakennetut ja testatut konekuvat ja säiliöt on optimoitu syvään oppimiseen EC2 Accelerated Computing Instance -tyypeissä, jolloin voit skaalata useisiin solmuihin hajautettuja työkuormia varten tehokkaammin ja helpommin. Se sisältää valmiiksi rakennetun Joustava kangasadapteri (EFA), Nvidia GPU-pino ja monet syvän oppimiskehykset (TensorFlow, MXNet ja PyTorch uusimmalla versiolla 2.0) tehokkaaseen hajautettuun syväoppimiskoulutukseen. Sinun ei tarvitse käyttää aikaa syväoppimisohjelmistojen ja -ajurien asentamiseen ja vianetsintään tai ML-infrastruktuurin rakentamiseen, eikä sinun tarvitse aiheutua toistuvia kustannuksia näiden kuvien korjaamisesta tietoturva-aukkojen varalta tai kuvien luomisesta uudelleen jokaisen uuden kehysversion päivityksen jälkeen. Sen sijaan voit keskittyä korkeamman lisäarvon tuottaviin ponnisteluihin, kun koulutat mittakaavassa lyhyemmässä ajassa ja iteroitat ML-mallejasi nopeammin.
Ratkaisun yleiskatsaus
Koska GPU-koulutus ja suorittimen päättäminen ovat suosittuja AWS-asiakkaiden käyttötapauksia, olemme sisällyttäneet osaksi tätä viestiä hybridiarkkitehtuurin vaiheittaisen toteutuksen (kuten seuraavassa kaaviossa näkyy). Tutustumme uusimpaan mahdollisuuteen ja käytämme P4 EC2 -esiintymää, jossa on BF16-tuki, joka on alustettu Base GPU DLAMI:lla, mukaan lukien NVIDIA-ohjaimet, CUDA, NCCL, EFA-pino ja PyTorch2.0 DLC RoBERTa-tunneanalyysimallin hienosäätöön. joka antaa sinulle hallinnan ja joustavuuden käyttää mitä tahansa avoimen lähdekoodin tai omaa kirjastoa. Sitten käytämme SageMakeria täysin hallitun mallin isännöintiinfrastruktuuriin, jotta voimme isännöidä malliamme AWS Graviton3 -pohjaisessa. C7g-esiintymiä. Valitsimme C7g:n SageMakerissa, koska sen on todistettu vähentävän päättelykustannuksia jopa 50 % verrattuna vastaaviin EC2-esiintymiin reaaliaikainen johtopäätös SageMakerissa. Seuraava kaavio havainnollistaa tätä arkkitehtuuria.
Mallin koulutus ja isännöinti tässä käyttötapauksessa koostuu seuraavista vaiheista:
- Käynnistä GPU DLAMI -pohjainen EC2 Ubuntu -ilmentymä VPC:ssäsi ja muodosta yhteys ilmentymään SSH:n avulla.
- Kun olet kirjautunut EC2-instanssiisi, lataa AWS PyTorch 2.0 DLC.
- Suorita DLC-säilö mallin koulutusskriptillä hienosäätääksesi RoBERTa-mallia.
- Kun mallin koulutus on valmis, pakkaa tallennettu malli, päättelyskriptit ja muutama metatietotiedosto tar-tiedostoon, jota SageMaker-päätelmä voi käyttää, ja lataa mallipaketti Amazonin yksinkertainen tallennuspalvelu (Amazon S3)-kauha.
- Ota malli käyttöön SageMakerin avulla ja luo HTTPS-päätepiste. SageMaker-päätelmäpäätepiste sisältää kuormituksen tasapainottimen ja yhden tai useamman päättelysäilösi esiintymän eri saatavuusvyöhykkeillä. Voit ottaa käyttöön joko useita versioita samasta mallista tai täysin eri malleja tämän yhden päätepisteen takana. Tässä esimerkissä isännöimme yhtä mallia.
- Kutsu mallin päätepisteesi lähettämällä sille testitiedot ja tarkista päättelytulos.
Seuraavissa osioissa esittelemme RoBERTa-mallin hienosäätöä tunteiden analysointia varten. RoBERTa on Facebook AI:n kehittämä, ja se parantaa suosittua BERT-mallia muokkaamalla keskeisiä hyperparametreja ja harjoittamalla esikoulutusta suuremmalla korpusella. Tämä johtaa parempaan suorituskykyyn verrattuna vanilja BERTiin.
Käytämme muuntajat Hugging Facen kirjasto, jotta RoBERTa-malli esiopetetaan noin 124 miljoonalla twiitillä, ja hienosäädämme sitä Twitter-tietojoukossa tunteiden analysointia varten.
Edellytykset
Varmista, että täytät seuraavat edellytykset:
- Sinulla on AWS-tili.
- Varmista, että olet
us-west-2
Alue suorittaa tämän esimerkin. (Tämä esimerkki on testattuus-west-2
; voit kuitenkin juosta millä tahansa muulla alueella.) - Luo rooli nimi
sagemakerrole
. Lisää hallinnoidut käytännötAmazonSageMakerFullAccess
jaAmazonS3FullAccess
antaa SageMakerille pääsyn S3-ämpäriin. - Luo EC2-rooli nimi
ec2_role
. Käytä seuraavaa lupakäytäntöä:
1. Käynnistä kehitysinstanssi
Luomme p4d.24xlarge-instanssin, joka tarjoaa 8 NVIDIA A100 Tensor Core -grafiikkasuoritinta us-west-2
:
Kun valitset AMI:n, noudata julkaisutiedot suorittaaksesi tämän komennon käyttämällä AWS-komentoriviliitäntä (AWS CLI) löytääksesi käytettävän AMI-tunnuksen us-west-2
:
Varmista, että gp3-juuritaltion koko on 200 GiB.
EBS-taltioiden salaus ei ole oletusarvoisesti käytössä. Harkitse tämän vaihtamista siirtäessäsi tätä ratkaisua tuotantoon.
2. Lataa Deep Learning Container
AWS DLC:t ovat saatavilla Docker-kuvina Amazonin elastisten säiliöiden rekisteri julkinen, hallittu AWS-säiliökuvarekisteripalvelu, joka on turvallinen, skaalautuva ja luotettava. Jokainen Docker-kuva on rakennettu koulutusta tai päätelmiä varten tietyn syvän oppimisen puiteversion, Python-version, CPU- tai GPU-tuella. Valitse PyTorch 2.0 -kehys käytettävissä olevien luettelosta Deep Learning Containers -kuvat.
Lataa DLC suorittamalla seuraavat vaiheet:
a. SSH instanssiin. Oletuksena EC2:n kanssa käytetty suojausryhmä avaa SSH-portin kaikille. Ota tämä huomioon, jos siirrät tämän ratkaisun tuotantoon:
Oletuksena Amazon EC2:n kanssa käytetty suojausryhmä avaa SSH-portin kaikille. Harkitse tämän vaihtamista, jos siirrät tämän ratkaisun tuotantoon.
b. Aseta ympäristömuuttujat, joita tarvitaan tämän toteutuksen muiden vaiheiden suorittamiseen:
Amazon ECR tukee julkisia kuvavarastoja resurssipohjaisilla käyttöoikeuksilla AWS-henkilöllisyyden ja käyttöoikeuksien hallinta (IAM), jotta tietyt käyttäjät tai palvelut voivat käyttää kuvia.
c. Kirjaudu DLC-rekisteriin:
d. Vedä uusin PyTorch 2.0 -säiliö GPU-tuella us-west-2
Jos saat virheilmoituksen "laitteessa ei ole tilaa", varmista kasvaa EC2 EBS -tilavuus 200 GiB:iin ja sitten laajentaa Linux-tiedostojärjestelmä.
3. Kloonaa uusimmat PyTorch 2.0:aan mukautetut komentosarjat
Kloonaa skriptit seuraavalla koodilla:
Koska käytämme Hugging Face transformers APIa uusimman version 4.28.1 kanssa, se on jo ottanut käyttöön PyTorch 2.0 -tuen. Lisäsimme seuraavan argumentin kouluttajan API:hen train_sentiment.py
Ota uudet PyTorch 2.0 -ominaisuudet käyttöön seuraavasti:
- Soihdun kokoaminen – Koe keskimäärin 43 %:n nopeus Nvidia A100 -grafiikkasuorittimissa yhdellä muutoksella.
- BF16 tietotyyppi – Uusi tietotyyppituki (Brain Floating Point) Ampere- tai uudemmille GPU:ille.
- Sulattu AdamW-optimoija – Yhdistetty AdamW-toteutus nopeuttaa harjoittelua entisestään. Tämä stokastinen optimointimenetelmä muuttaa painon pienenemisen tyypillistä toteutusta Adamissa irrottamalla painon heikkeneminen gradientin päivityksestä.
4. Luo uusi Docker-kuva riippuvuuksilla
Laajennamme valmiiksi rakennettua PyTorch 2.0 DLC -näköistiedostoa asentamaan Hugging Face -muuntajan ja muut kirjastot, joita tarvitsemme mallin hienosäätämiseen. Tämän avulla voit käyttää mukana toimitettuja testattuja ja optimoituja syväoppimiskirjastoja ja -asetuksia ilman, että sinun tarvitsee luoda kuvaa tyhjästä. Katso seuraava koodi:
5. Aloita harjoittelu kontin avulla
Suorita seuraava Docker-komento aloittaaksesi mallin hienosäädön tweet_eval
tunteiden tietojoukko. Käytämme Docker-säilöargumentteja (jaetun muistin koko, suurin lukittu muisti ja pinon koko) suosittelee Nvidia syvään oppimiseen.
Sinun pitäisi odottaa seuraavaa tulosta. Skripti lataa ensin TweetEval-tietojoukon, joka koostuu seitsemästä heterogeenisestä tehtävästä Twitterissä, jotka kaikki on kehystetty moniluokkaiseksi twiittiluokitukseksi. Tehtävät sisältävät ironiaa, vihaa, loukkaavaa, asennetta, emojia, tunteita ja tunteita.
Skripti lataa sitten perusmallin ja aloittaa hienosäätöprosessin. Koulutus- ja arviointimittarit raportoidaan kunkin aikakauden lopussa.
Suorituskykytilastot
PyTorch 2.0:lla ja uusimmalla Hugging Face transformers -kirjastolla 4.28.1 havaitsimme 42 %:n nopeuden yhdellä p4d.24xlarge -esiintymillä, joissa oli 8 A100 40 Gt:n GPU:ta. Suorituskykyparannukset tulevat torch.compile-tiedoston, BF16-tietotyypin ja sulatetun AdamW-optimointiohjelman yhdistelmästä. Seuraava koodi on kahden harjoitusajon lopputulos uusilla ominaisuuksilla ja ilman:
6. Testaa koulutettua mallia paikallisesti ennen kuin valmistaudut SageMaker-johtopäätökseen
Löydät alla olevat tiedostot $ml_working_dir/saved_model/
harjoittelun jälkeen:
Varmistetaan, että voimme suorittaa päättelyn paikallisesti ennen kuin valmistaudumme SageMaker-päätelmään. Voimme ladata tallennetun mallin ja suorittaa päättelyn paikallisesti käyttämällä test_trained_model.py
käsikirjoitus:
Sinun pitäisi odottaa seuraavaa tulostetta syötteellä "Covid-tapaukset lisääntyvät nopeasti!":
7. Valmistele mallistopallo SageMaker-päätelmää varten
Tee mallin sijaintihakemiston alle uusi hakemisto nimeltä code
:
Luo tiedosto uuteen hakemistoon inference.py
ja lisää siihen seuraava:
Lopulta sinulla pitäisi olla seuraava kansiorakenne:
Malli on valmis pakattavaksi ja ladattavaksi Amazon S3:een käytettäväksi SageMaker-päätelmän kanssa:
8. Ota malli käyttöön SageMaker AWS Graviton -esiintymässä
Uudet prosessorien sukupolvet tarjoavat merkittävän suorituskyvyn parannuksen ML-päätelmissä erityisten sisäänrakennettujen ohjeiden ansiosta. Tässä käyttötapauksessa käytämme SageMakerin täysin hallittua isännöintiinfrastruktuuria AWS Graviton3 -pohjaisten C7g-instanssien kanssa. AWS on myös mitannut jopa 50 % kustannussäästöjä PyTorch-päätelmissä AWS Graviton3 -pohjaisilla EC2 C7g -esiintymillä Torch Hub ResNet50:ssä ja useissa Hugging Face -malleissa verrattuna vastaaviin EC2-instanssiin.
Mallien käyttöönottamiseksi AWS Graviton -esiintymissä käytämme AWS DLC:itä, jotka tukevat PyTorch 2.0:aa ja TorchServe 0.8.0:aa, tai voit tuo omat astiat mukaan jotka ovat yhteensopivia ARMv8.2-arkkitehtuurin kanssa.
Käytämme aiemmin koulutettua mallia: s3://<your-s3-bucket>/twitter-roberta-base-sentiment-latest.tar.gz
. Jos et ole käyttänyt SageMakeria aiemmin, tarkista Aloita Amazon SageMaker -sovelluksen käyttö.
Aloita varmistamalla, että SageMaker-paketti on ajan tasalla:
Koska tämä on esimerkki, luo tiedosto nimeltä start_endpoint.py
ja lisää seuraava koodi. Tämä on Python-skripti, joka aloittaa SageMaker-päätelmän päätepisteen tilassa:
Käytämme ilmentymälle ml.c7g.4xlargea ja haemme PT 2.0:aa kuvan laajuudella inference_graviton
. Tämä on AWS Graviton3 -esiintymämme.
Seuraavaksi luomme tiedoston, joka suorittaa ennusteen. Teemme nämä erillisinä komentosarjoina, jotta voimme suorittaa ennusteet niin monta kertaa kuin haluamme. Luoda predict.py
seuraavalla koodilla:
Luotujen komentosarjojen avulla voimme nyt aloittaa päätepisteen, tehdä ennusteita päätepisteeseen nähden ja puhdistaa, kun olemme valmiita:
9. Puhdista
Lopuksi haluamme siivota tästä esimerkistä. Luo cleanup.py ja lisää seuraava koodi:
Yhteenveto
AWS DLAMI:ista ja DLC:istä on tullut standardi syvän oppimisen työkuormien suorittamiseen laajalla valikoimalla AWS:n laskenta- ja ML-palveluita. Kehyskohtaisten lisäosien käytön lisäksi AWS ML -palveluissa voit myös käyttää yhtä kehystä Amazon EC2:ssa, mikä poistaa raskaan noston, jota kehittäjät tarvitsevat syväoppimissovellusten rakentamiseen ja ylläpitoon. Viitata DLAMI:n julkaisutiedot ja Käytettävissä olevat Deep Learning Containers -kuvat päästä alkuun.
Tämä viesti osoitti yhden monista mahdollisuuksista kouluttaa ja palvella seuraavaa malliasi AWS:ssä ja käsitteli useita muotoja, joita voit käyttää liiketoimintatavoitteidesi saavuttamiseksi. Kokeile tätä esimerkkiä tai käytä muita AWS ML -palveluitamme laajentaaksesi yrityksesi tiedon tuottavuutta. Olemme sisällyttäneet yksinkertaisen mielipideanalyysiongelman, jotta uudet ML:n asiakkaat ymmärtävät, kuinka helppoa on aloittaa PyTorch 2.0:n käyttö AWS:ssä. Tulevissa blogikirjoituksissa kerromme edistyneemmistä käyttötapauksista, malleista ja AWS-tekniikoista.
Tietoja kirjoittajista
Kanwaljit Khurmi on johtava ratkaisuarkkitehti Amazon Web Servicesissä. Hän työskentelee AWS-asiakkaiden kanssa tarjotakseen ohjausta ja teknistä apua, joka auttaa heitä parantamaan ratkaisujensa arvoa AWS:n käytössä. Kanwaljit on erikoistunut auttamaan asiakkaita kontti- ja koneoppimissovelluksissa.
Mike Schneider on järjestelmäkehittäjä, jonka kotipaikka on Phoenix AZ. Hän on Deep Learning -säilöjen jäsen, joka tukee erilaisia Framework-säilökuvia, mukaan lukien Graviton Inference. Hän on omistautunut infrastruktuurin tehokkuudelle ja vakaudelle.
Lai Wei on vanhempi ohjelmistosuunnittelija Amazon Web Services -palvelussa. Hän keskittyy helppokäyttöisten, tehokkaiden ja skaalautuvien syväoppimiskehysten rakentamiseen hajautetun mallikoulutuksen nopeuttamiseksi. Työn ulkopuolella hän viettää aikaa perheen kanssa, vaeltaa ja hiihtää.
- SEO-pohjainen sisällön ja PR-jakelu. Vahvista jo tänään.
- PlatoAiStream. Web3 Data Intelligence. Tietoa laajennettu. Pääsy tästä.
- Tulevaisuuden lyöminen Adryenn Ashley. Pääsy tästä.
- Osta ja myy osakkeita PRE-IPO-yhtiöissä PREIPO®:lla. Pääsy tästä.
- Lähde: https://aws.amazon.com/blogs/machine-learning/part-1-build-high-performance-ml-models-using-pytorch-2-0-on-aws/
- :on
- :On
- :ei
- :missä
- $ YLÖS
- 1
- 10
- 100
- 11
- 12
- 13
- 14
- 15%
- 16
- 17
- 20
- 200
- 23
- 25
- 26%
- 28
- 31
- 7
- 8
- 9
- a
- kiihdyttää
- kiihtyi
- kiihtyvä
- Hyväksyä
- pääsy
- poikki
- Toiminta
- Aatami
- lisätä
- lisä-
- hyväksyä
- kehittynyt
- Jälkeen
- vastaan
- AI
- kohdista
- linjassa
- Kaikki
- sallia
- Salliminen
- mahdollistaa
- pitkin
- jo
- Myös
- Amazon
- Amazon EC2
- Amazon Web Services
- AMD
- määrä
- an
- analyysi
- analysoida
- ja
- ilmoitti
- Toinen
- Kaikki
- api
- Hakemus
- sovellukset
- lähestymistapa
- suunnilleen
- arkkitehtuuri
- OVAT
- ALUE
- perustelu
- perustelut
- keinotekoinen
- tekoäly
- Tekoäly (AI)
- AS
- Apu
- At
- saatavuus
- saatavissa
- keskimäärin
- AWS
- swing
- pohja
- perustua
- Pohjimmiltaan
- BE
- koska
- tulevat
- ollut
- ennen
- alkaa
- takana
- benchmark
- Viitearvot
- Iso
- miljardeja
- BIN
- Blogi
- Blogitekstit
- elin
- pohja
- Aivot
- laaja
- talousarvio
- rakentaa
- Rakentaminen
- rakennettu
- sisäänrakennettu
- taakka
- liiketoiminta
- yritykset
- mutta
- by
- soittaa
- nimeltään
- soittamalla
- CAN
- kyvyt
- tapaus
- tapauksissa
- CD
- muuttaa
- muuttuviin
- valinta
- Valita
- luokittelu
- asiakas
- pilvi
- koodi
- KOM
- yhdistelmä
- tulee
- Viestintä
- vertailukelpoinen
- verrattuna
- yhteensopiva
- täydellinen
- Laskea
- tietokone
- Tietokoneen visio
- tietojenkäsittely
- kytkeä
- Harkita
- muodostuu
- Console
- Kontti
- Kontit
- pitoisuus
- sisällön luominen
- ohjaus
- Ydin
- Hinta
- kustannussäästöjä
- kustannukset
- voisi
- päällyste
- luoda
- luotu
- luominen
- Valtakirja
- kuratoitu
- Nykyinen
- Asiakkaat
- räätälöidä
- tiedot
- Päivämäärä
- päivää
- omistautunut
- syvä
- syvä oppiminen
- oletusarvo
- osoittaa
- Riippuen
- sijoittaa
- käyttöön
- käyttöönotto
- käyttöönotot
- suunniteltu
- yksityiskohdat
- kehitetty
- Kehittäjä
- kehittäjille
- Kehitys
- eri
- Sulattaa
- pohtia
- keskusteltiin
- jaettu
- hajautettu koulutus
- useat
- do
- Satamatyöläinen
- tehty
- Dont
- download
- lataukset
- kuljettaja
- kuljettajat
- ajo
- kaksi
- dynaaminen
- kukin
- Aikaisemmin
- helpottaa
- helposti
- helppo
- vaikutus
- tehokkaasti
- tehokkuus
- tehokkaasti
- vaivaa
- myöskään
- mahdollistaa
- käytössä
- salaus
- loppu
- päätepiste
- insinööri
- tehostettu
- täysin
- ympäristö
- aikakausi
- virhe
- arvioida
- arviointi
- Jopa
- EVER
- Joka
- esimerkki
- olemassa
- Laajentaa
- odottaa
- experience
- tutkia
- räjähdysmäinen
- vienti
- laajentaa
- ulottuu
- kangas
- Kasvot
- perhe
- nopeampi
- nopein
- Ominaisuudet
- harvat
- Kuva
- filee
- Asiakirjat
- lopullinen
- Löytää
- Etunimi
- sovittaa
- Joustavuus
- kelluva
- Keskittää
- tarkennus
- seurata
- jälkeen
- varten
- Puitteet
- puitteet
- alkaen
- täysin
- edelleen
- tuottaa
- syntyy
- sukupolvi
- sukupolvet
- generatiivinen
- Generatiivinen AI
- saada
- mennä
- GitHub
- Antaa
- antaa
- Global
- GPU
- GPU
- Ryhmä
- Kasvu
- ohjaus
- Olla
- ottaa
- he
- raskas
- raskas nosto
- auttaa
- auttaa
- korkea suorituskyky
- korkeampi
- suurin
- hänen
- pitää
- isäntä
- hotellit
- Miten
- Kuitenkin
- HTML
- http
- HTTPS
- Napa
- Sadat
- Hybridi
- ID
- Identiteetti
- if
- havainnollistaa
- kuva
- kuvien
- toteuttaa
- täytäntöönpano
- tuoda
- parantaa
- parani
- parannus
- parannuksia
- parantaminen
- in
- sisältää
- mukana
- sisältää
- Mukaan lukien
- Kasvaa
- lisää
- itsenäinen
- teollisuuden
- Infrastruktuuri
- panos
- asentaa
- asennetaan
- asentaminen
- esimerkki
- sen sijaan
- ohjeet
- integroi
- Intel
- Älykkyys
- tulee
- Investoinnit
- IP
- ironia
- IT
- SEN
- Työpaikat
- jpg
- json
- avain
- Merkki
- Kieli
- suuri
- laaja
- suurempi
- Viive
- uusin
- Viimeisin julkaisu
- käynnistää
- Liidit
- oppiminen
- vasemmalle
- kirjastot
- Kirjasto
- nosto
- pitää
- rajallinen
- linja
- linux
- Lista
- kuormitus
- paikallisesti
- sijaitsevat
- lukittu
- log
- Kirjaudu sisään
- pois
- alentaa
- alin
- kone
- koneoppiminen
- ylläpitää
- tehdä
- Tekeminen
- hoitaa
- onnistui
- monet
- matematiikka
- max
- Saattaa..
- Tavata
- jäsen
- Muisti
- yhdistämisiä
- Metadata
- menetelmä
- Metrics
- miljoona
- ML
- MLOps
- tila
- malli
- mallit
- Moduulit
- kk
- lisää
- liikkuvat
- moninkertainen
- nimi
- Luonnollinen
- Luonnollinen kielen käsittely
- välttämätön
- Tarve
- tarvitaan
- tarpeet
- negatiivinen
- verkko
- verkostoituminen
- Neutraali
- Uusi
- Uudet ominaisuudet
- Uudet teknologiat
- seuraava
- solmut
- Huomautuksia
- Ilmoitus..
- nyt
- Nvidia
- tavoitteet
- of
- hyökkäys
- kampanja
- tarjoamalla
- Tarjoukset
- on
- ONE
- avoimen lähdekoodin
- avautuu
- toiminta-
- optimointi
- optimoitu
- Vaihtoehdot
- or
- orkestrointi
- organisatorinen
- OS
- Muut
- Muuta
- meidän
- ulos
- ulostulo
- ulkopuolella
- oma
- paketti
- pakattu
- parametrit
- osa
- läikkä
- kauneuspilkku
- suorituskyky
- lupa
- Oikeudet
- feeniks
- poimia
- poimitaan
- putki
- foorumi
- Platon
- Platonin tietotieto
- PlatonData
- Ole hyvä
- Kohta
- politiikkaa
- politiikka
- Suosittu
- mahdollisuuksia
- Kirje
- Viestejä
- powered
- voimakas
- ennustaa
- ennustus
- Ennusteet
- Valmistella
- valmistelee
- edellytyksiä
- edellinen
- Pääasiallinen
- Ongelma
- prosessi
- käsittely
- prosessorit
- tuotanto
- tuottavuus
- Tuotteemme
- projekti
- hankkeet
- patentoitu
- todistettu
- toimittaa
- tarjoaa
- julkinen
- laittaa
- Python
- pytorch
- valmis
- äskettäinen
- äskettäin
- toistuva
- vähentää
- alue
- rekisterin
- säännöllisesti
- suhteellinen
- vapauta
- luotettava
- jäljellä oleva
- raportoitu
- edellyttää
- tarvitaan
- vaatimukset
- Vaatii
- resurssi
- vastaus
- rajoitukset
- johtua
- palata
- arviot
- Rooli
- juuri
- ajaa
- juoksu
- sagemaker
- SageMaker-johtopäätös
- sama
- Säästöt
- skaalautuva
- Asteikko
- skannata
- scikit opittava
- laajuus
- pisteet
- raapia
- skriptejä
- Osa
- osiot
- turvallinen
- turvallisuus
- nähdä
- valitsemalla
- valinta
- lähettäminen
- vanhempi
- näkemys
- erillinen
- palvella
- palvelu
- Palvelut
- Istunto
- setti
- settings
- setup
- seitsemän
- useat
- SHA256
- yhteinen
- shouldnt
- näyteikkuna
- osoittivat
- esitetty
- Näytä
- merkittävä
- Yksinkertainen
- single
- Koko
- koot
- So
- Tuotteemme
- Software Engineer
- ratkaisu
- Ratkaisumme
- jonkin verran
- Tila
- erikoistunut
- erikoistunut
- erityinen
- erityisesti
- nopeus
- nopeudet
- viettää
- menot
- Pysyvyys
- pino
- standardi
- Alkaa
- alkoi
- alkaa
- Lausunto
- tilasto
- Vaihe
- Askeleet
- Levytila
- säilytysvaihtoehdot
- strategiat
- rakenne
- niin
- tuki
- Tuetut
- Tukea
- Tukee
- järjestelmä
- järjestelmät
- Räätälöity
- tehtävät
- Tekninen
- tekniikat
- Technologies
- tensorflow
- testi
- testattu
- kuin
- että
- -
- Alue
- heidän
- Niitä
- sitten
- Nämä
- ne
- asiat
- tätä
- vaikka?
- Kautta
- suoritusteho
- porras
- aika
- kertaa
- että
- työkalut
- taskulamppu
- Juna
- koulutettu
- koulutus
- muuntaja
- muuntajat
- muuttamassa
- yrittää
- piipittää
- tweets
- viserrys
- kaksi
- tyyppi
- tyypit
- tyypillinen
- Ubuntu
- varten
- ymmärtää
- tuleva
- Päivitykset
- päivitetty
- parantaa
- ladattu
- Käyttö
- käyttää
- käyttölaukku
- käytetty
- Käyttäjät
- käyttämällä
- hyödyllisyys
- arvo
- lajike
- eri
- todentaa
- versio
- visio
- tilavuus
- haavoittuvuuksia
- haluta
- we
- verkko
- verkkopalvelut
- viikkoa
- paino
- tervetuloa
- kun
- joka
- laajalti
- tulee
- with
- ilman
- Referenssit
- työnkulku
- toimii
- kirjoittaa
- kirjoittaminen
- X
- Voit
- Sinun
- zephyrnet
- alueet