A PyTorch egy gépi tanulási (ML) keretrendszer, amelyet az AWS-ügyfelek széles körben használnak számos alkalmazáshoz, például számítógépes látáshoz, természetes nyelvi feldolgozáshoz, tartalomkészítéshez és egyebekhez. A PyTorch 2.0 legutóbbi kiadásával az AWS-ügyfelek ugyanazokat a dolgokat tehetik meg, mint a PyTorch 1.x-el, de gyorsabban és nagyobb mértékben, jobb edzési sebességgel, alacsonyabb memóriahasználattal és továbbfejlesztett elosztott képességekkel. Számos új technológia, köztük a torch.compile, a TorchDynamo, az AOTAutograd, a PrimTorch és a TorchInductor bekerült a PyTorch2.0 kiadásba. Hivatkozni PyTorch 2.0: Következő generációs kiadásunk, amely gyorsabb, Pythonicabb és dinamikusabb, mint valaha a részletekért.
Ez a bejegyzés bemutatja a nagyméretű, nagy teljesítményű elosztott ML-modell-oktatás és -telepítés teljesítményét és egyszerűségét PyTorch 2.0 használatával AWS-en. Ez a bejegyzés részletesebben bemutatja a RoBERTa (Robustly Optimized BERT Pretraining Approach) modell finomhangolását a hangulatelemzéshez. AWS Deep Learning AMI-k (AWS DLAMI) és AWS Deep Learning Containers (DLC-k) bekapcsolva Amazon rugalmas számítási felhő (Amazon EC2 p4d.24xlarge) megfigyelt 42%-os sebességgel, ha PyTorch 2.0 torch.comile + bf16 + olvasztott AdamW-vel használják. A finomhangolt modellt ezután bevezetik AWS Graviton-alapú C7g EC2 példány be Amazon SageMaker a megfigyelt 10%-os gyorsítással a PyTorch 1.13-hoz képest.
A következő ábra a RoBERTa modell finomhangolásának teljesítményét mutatja be Amazon EC2 p4d.24xlarge rendszeren, AWS PyTorch 2.0 DLAMI + DLC-vel.
Hivatkozni Optimalizált PyTorch 2.0 következtetés AWS Graviton processzorokkal a PyTorch 2.0 AWS Graviton-alapú példánykövetkeztetési teljesítmény-referenciáival kapcsolatos részletekért.
PyTorch 2.0 támogatása AWS-en
A PyTorch2.0 támogatása nem korlátozódik az ebben a bejegyzésben bemutatott példákban bemutatott szolgáltatásokra és számításokra; sok másra is kiterjed az AWS-en, amelyeket ebben a részben tárgyalunk.
Üzleti követelmény
Sok AWS-ügyfél, különféle iparágakban, mesterséges intelligencia (AI) használatával alakítja át vállalkozását, különösen a generatív mesterséges intelligencia és a nagy nyelvi modellek (LLM) területén, amelyeket emberszerű szövegek létrehozására terveztek. Ezek alapvetően nagy, mély tanulási technikákon alapuló modellek, amelyeket több százmilliárd paraméterrel képeznek. A modellméretek növekedése napokról hetekre, sőt egyes esetekben hónapokra növeli a képzési időt. Ez a képzési és következtetési költségek exponenciális növekedését eredményezi, amihez minden eddiginél nagyobb szükség van egy olyan keretrendszerre, mint a PyTorch 2.0, amely beépített támogatja a gyorsított modellképzést és az AWS optimalizált infrastruktúráját, amely az adott munkaterheléshez és teljesítményigényekhez igazodik.
Számítási mód választása
Az AWS PyTorch 2.0 támogatást nyújt a nagy teljesítményű számítástechnika, a nagy sebességű hálózatok és a méretezhető, nagy teljesítményű tárolási lehetőségek legszélesebb választékához, amelyeket bármilyen ML projekthez vagy alkalmazáshoz használhat, és testreszabhat teljesítmény- és költségvetési követelményei szerint. Ez a következő szakasz diagramján nyilvánul meg; az alsó szinten az AWS Graviton, Nvidia, AMD és Intel processzorokkal hajtott számítási példányok széles választékát kínáljuk.
Modelltelepítésekhez használhat ARM-alapú processzorokat, például a nemrég bejelentett AWS Graviton-alapú példányt, amely következtetési teljesítményt nyújt a PyTorch 2.0 számára az előző PyTorch-kiadáshoz képest akár 3.5-szeres sebességgel a Resnet50 számára, és akár 1.4-szeres sebességgel. sebesség a BERT számára, így az AWS Graviton alapú példányok a leggyorsabb számításra optimalizált példányok az AWS-en a CPU-alapú modellkövetkeztetési megoldásokhoz.
Választható ML szolgáltatások
Az AWS-számítás használatához a globális felhőalapú szolgáltatások széles készletéből választhat az ML-fejlesztéshez, a számításokhoz és a munkafolyamatok összehangolásához. Ez a választás lehetővé teszi az üzleti és felhőstratégiákhoz való igazodást, és a PyTorch 2.0-s feladatok futtatását az Ön által választott platformon. Például, ha helyszíni korlátozásai vannak, vagy meglévő befektetései vannak nyílt forráskódú termékekbe, használhatja az Amazon EC2, AWS ParallelClustervagy AWS UltraCluster elosztott képzési terhelések lebonyolítására önmenedzselés alapján. Használhat egy teljesen felügyelt szolgáltatást, például a SageMaker-t a költségoptimalizált, teljesen felügyelt és termelési méretű képzési infrastruktúrához. A SageMaker különféle MLOps-eszközökkel is integrálható, ami lehetővé teszi a modell telepítésének skálázását, a következtetési költségek csökkentését, a modellek hatékonyabb kezelését a gyártás során, és csökkenti a működési terheket.
Hasonlóképpen, ha meglévő Kubernetes befektetései vannak, akkor is használhatja Amazon Elastic Kubernetes szolgáltatás (Amazon EKS) és Kubeflow az AWS-en ML-folyamat megvalósításához elosztott képzéshez vagy AWS-natív konténer-hangszerelési szolgáltatás használatához, mint pl Amazon Elastic Container Service (Amazon ECS) modellképzéshez és telepítésekhez. Az ML platform felépítésének lehetőségei nem korlátozódnak ezekre a szolgáltatásokra; a PyTorch 2.0-s munkáival kapcsolatos szervezeti követelményeitől függően válogathat.
A PyTorch 2.0 engedélyezése AWS DLAMI-val és AWS DLC-vel
Az AWS-szolgáltatások fent említett kötegének és a hatékony számítástechnika használatához telepítenie kell a PyTorch2.0 keretrendszer optimalizált lefordított verzióját és a szükséges függőségeit, amelyek közül sok független projekt, és végpontokig tesztelni kell őket. Szükség lehet CPU-specifikus könyvtárakra is a gyorsított matematikai rutinokhoz, GPU-specifikus könyvtárakra a gyorsított matematikai és GPU-közi kommunikációs rutinokhoz, valamint GPU-illesztőprogramokra, amelyeket a GPU-könyvtárak fordításához használt GPU-fordítóhoz kell igazítani. Ha munkái nagyszabású, több csomópontos képzést igényelnek, akkor olyan optimalizált hálózatra van szüksége, amely a legalacsonyabb késleltetést és a legnagyobb átviteli sebességet tudja biztosítani. A verem összeállítása után rendszeresen át kell vizsgálnia és javítania kell a biztonsági réseket, és minden keretverzió frissítése után újra kell építenie és újra kell tesztelnie a veremet.
Az AWS segít csökkenteni ezt a nehéz terhet azáltal, hogy gondozott és biztonságos keretrendszereket, függőségeket és eszközöket kínál a felhőben történő mély tanulás felgyorsítására. AWS DLAMI és a AWS DLC-k. Ezeket az előre elkészített és tesztelt gépképeket és tárolókat az EC2 Accelerated Computing Instance típusokon való mély tanulásra optimalizálták, így hatékonyabban és könnyebben skálázhat több csomópontra az elosztott munkaterhelésekhez. Előre beépített Elasztikus szövetadapter (EFA), Nvidia GPU-verem és számos mély tanulási keretrendszer (TensorFlow, MXNet és PyTorch a 2.0 legújabb kiadásával) a nagy teljesítményű elosztott mélytanulási képzéshez. Nem kell időt töltenie a mélytanuló szoftverek és illesztőprogramok telepítésével és hibaelhárításával vagy az ML-infrastruktúra kiépítésével, és nem kell viselnie a rendszeres költségeket sem, ha ezeket a lemezképeket biztonsági réseket javítja, vagy minden új keretverzió frissítése után újra létrehozza a lemezképeket. Ehelyett a nagyobb hozzáadott értékű erőfeszítésekre összpontosíthat, amelyek rövidebb időn belüli nagyszabású betanítási munkákat eredményeznek, és gyorsabban iterálják az ML modelleket.
Megoldás áttekintése
Tekintettel arra, hogy a GPU-val kapcsolatos oktatás és a CPU-ra való következtetés az AWS-ügyfelek népszerű használati esete, e bejegyzés részeként egy hibrid architektúra lépésről lépésre történő megvalósítását is bemutattuk (ahogy az alábbi ábrán látható). Felfedezzük a legkorszerűbb lehetőségeket, és egy P4 EC2 példányt használunk BF16 támogatással, alap GPU DLAMI-val inicializálva, beleértve az NVIDIA illesztőprogramokat, CUDA-t, NCCL-t, EFA-vermet és PyTorch2.0 DLC-t a RoBERTa hangulatelemzési modell finomhangolásához. amely irányítást és rugalmasságot biztosít bármely nyílt forráskódú vagy szabadalmaztatott könyvtár használatához. Ezután a SageMaker-t használjuk egy teljesen felügyelt modelltárhely infrastruktúrához, hogy a modellünket AWS Graviton3-on tároljuk. C7g példányok. Azért választottuk a C7g-t a SageMakeren, mert bebizonyosodott, hogy akár 50%-kal is csökkenti a következtetési költségeket a hasonló EC2 példányokhoz képest. valós idejű következtetés a SageMakeren. A következő diagram ezt az architektúrát szemlélteti.
A modell betanítása és tárolása ebben a használati esetben a következő lépésekből áll:
- Indítson el egy GPU DLAMI-alapú EC2 Ubuntu példányt a VPC-n, és csatlakozzon a példányához SSH használatával.
- Miután bejelentkezett az EC2 példányába, töltse le az AWS PyTorch 2.0 DLC-t.
- Futtassa a DLC-tárolót egy modell betanító szkripttel a RoBERTa modell finomhangolásához.
- A modell betanítása után csomagolja be a mentett modellt, a következtetési szkripteket és néhány metaadatfájlt egy tar fájlba, amelyet a SageMaker következtetés tud használni, és töltse fel a modellcsomagot egy Amazon egyszerű tárolási szolgáltatás (Amazon S3) vödör.
- Telepítse a modellt a SageMaker segítségével, és hozzon létre egy HTTPS-következtetési végpontot. A SageMaker következtetési végpont egy terheléselosztót és a következtetéstároló egy vagy több példányát tartalmazza a különböző elérhetőségi zónákban. Ugyanannak a modellnek több verzióját vagy teljesen különböző modelleket is telepíthet ezen egyetlen végpont mögé. Ebben a példában egyetlen modellt tárolunk.
- Hívja meg a modell végpontját tesztadatok elküldésével, és ellenőrizze a következtetés kimenetét.
A következő szakaszokban egy RoBERTa modell finomhangolását mutatjuk be a hangulatelemzéshez. A RoBERTa-t a Facebook AI fejlesztette ki, továbbfejlesztve a népszerű BERT modellt a kulcsfontosságú hiperparaméterek módosításával és egy nagyobb korpusz előképzésével. Ez jobb teljesítményt eredményez a vaníliás BERT-hez képest.
Az általunk használt transzformerek Hugging Face könyvtárát, hogy a RoBERTa-modellt körülbelül 124 millió tweetre előképezze meg, és finomhangoljuk a Twitter-adatkészleten a hangulatelemzés érdekében.
Előfeltételek
Győződjön meg arról, hogy megfelel a következő előfeltételeknek:
- Van egy AWS-fiók.
- Győződjön meg róla, hogy a
us-west-2
Régió a példa futtatásához. (Ez a példa tesztelve vanus-west-2
; azonban bármely más régióban futhat.) - Hozzon létre egy szerepet a névvel
sagemakerrole
. Felügyelt házirendek hozzáadásaAmazonSageMakerFullAccess
és aAmazonS3FullAccess
hogy a SageMaker hozzáférjen az S3 gyűjtőhelyekhez. - Hozzon létre egy EC2 szerepkört a névvel
ec2_role
. Használja a következő engedélyezési szabályzatot:
1. Indítsa el a fejlesztési példányt
Létrehozunk egy p4d.24xlarge példányt, amely 8 NVIDIA A100 Tensor Core GPU-t kínál us-west-2
:
Az AMI kiválasztásakor kövesse a Kiadási megjegyzések a parancs futtatásához a AWS parancssori interfész (AWS CLI), hogy megtalálja a használni kívánt AMI azonosítót us-west-2
:
Győződjön meg arról, hogy a gp3 gyökérkötet mérete 200 GiB.
Az EBS kötettitkosítás alapértelmezés szerint nincs engedélyezve. Fontolja meg ennek megváltoztatását, amikor ezt a megoldást éles üzembe helyezi át.
2. Töltse le a Deep Learning Container-t
Az AWS DLC-k Docker-képként érhetők el Az Amazon rugalmas konténernyilvántartása nyilvános, egy felügyelt AWS-tárolókép-nyilvántartási szolgáltatás, amely biztonságos, méretezhető és megbízható. Minden Docker-lemezkép egy adott mély tanulási keretrendszer-verzióra, a Python-verzióra, CPU- vagy GPU-támogatással való tanuláshoz vagy következtetésekhez készült. Válassza ki a PyTorch 2.0 keretrendszert az elérhető listából Deep Learning Containers képek.
A DLC letöltéséhez hajtsa végre a következő lépéseket:
a. SSH a példányhoz. Alapértelmezés szerint az EC2-vel használt biztonsági csoport mindenki számára megnyitja az SSH-portot. Kérjük, vegye figyelembe ezt, ha ezt a megoldást éles üzembe helyezi át:
Alapértelmezés szerint az Amazon EC2-vel használt biztonsági csoport mindenki számára megnyitja az SSH-portot. Fontolja meg ennek megváltoztatását, ha ezt a megoldást éles üzembe helyezi át.
b. Állítsa be a megvalósítás többi lépésének futtatásához szükséges környezeti változókat:
Az Amazon ECR támogatja a nyilvános képtárakat erőforrás-alapú engedélyekkel AWS Identity and Access Management (IAM), így bizonyos felhasználók vagy szolgáltatások hozzáférhetnek a képekhez.
c. Jelentkezzen be a DLC nyilvántartásába:
d. Húzza be a legújabb PyTorch 2.0 tárolót GPU-támogatással us-west-2
Ha a „nincs szabad hely az eszközön” hibaüzenetet kapja, győződjön meg róla növelje az EC2 EBS kötetet 200 GiB-ra, majd terjed a Linux fájlrendszer.
3. Klónozza a PyTorch 2.0-hoz adaptált legújabb szkripteket
Klónozza a szkripteket a következő kóddal:
Mivel a Hugging Face Transformers API-t a legújabb 4.28.1-es verzióval használjuk, már engedélyezte a PyTorch 2.0 támogatását. A következő argumentumot hozzáadtuk a tréner API-hoz train_sentiment.py
a PyTorch 2.0 új funkcióinak engedélyezéséhez:
- Fáklya összeállítás – Tapasztaljon meg átlagosan 43%-os gyorsulást az Nvidia A100 GPU-kon egyetlen változtatási sorral.
- BF16 adattípus – Új adattípus támogatás (Brain Floating Point) Ampere vagy újabb GPU-khoz.
- Összeolvasztott AdamW optimalizáló – Egyesített AdamW implementáció a képzés további felgyorsítása érdekében. Ez a sztochasztikus optimalizálási módszer módosítja a súlycsökkenés tipikus megvalósítását Adam-ben azáltal, hogy elválasztja a súlycsökkenést a gradiens frissítésétől.
4. Hozzon létre egy új Docker-lemezképet függőségekkel
Kibővítjük az előre elkészített PyTorch 2.0 DLC-képet, hogy telepítsük a Hugging Face transzformátort és más olyan könyvtárakat, amelyekre szükségünk van a modellünk finomhangolásához. Ez lehetővé teszi a mellékelt tesztelt és optimalizált mély tanulási könyvtárak és beállítások használatát anélkül, hogy a semmiből kellene képet létrehoznia. Lásd a következő kódot:
5. Kezdje el az edzést a tartály használatával
Futtassa a következő Docker parancsot a modell finomhangolásának megkezdéséhez tweet_eval
hangulati adatkészlet. A Docker-tároló argumentumokat használjuk (megosztott memória mérete, maximális zárolt memória és veremméret) ajánlja az Nvidia mély tanulási terhelésekhez.
A következő kimenetre kell számítania. A szkript először letölti a TweetEval adatkészletet, amely hét heterogén feladatból áll a Twitteren, és mindegyik többosztályos tweetbesorolásként van kialakítva. A feladatok közé tartozik az irónia, a gyűlölet, a sértő, az álláspont, az emoji, az érzelmek és az érzelmek.
A szkript ezután letölti az alapmodellt, és elindítja a finomhangolási folyamatot. A képzési és értékelési mutatók az egyes korszakok végén jelennek meg.
Teljesítménystatisztika
A PyTorch 2.0 és a Hugging Face transzformátorok legújabb, 4.28.1-es könyvtára esetén 42%-os gyorsulást figyeltünk meg egyetlen p4d.24xlarge példányon 8 darab A100 40 GB-os GPU-val. A teljesítménynövekedés a torch.compile, a BF16 adattípus és az egyesített AdamW optimalizáló kombinációjának köszönhető. A következő kód két edzési futás végeredménye új funkciókkal és anélkül:
6. Tesztelje a betanított modellt helyben, mielőtt felkészülne a SageMaker következtetésre
Az alábbi fájlokat találja meg $ml_working_dir/saved_model/
edzés után:
Győződjön meg arról, hogy helyben le tudjuk futtatni a következtetést, mielőtt felkészülnénk a SageMaker következtetésre. A mentett modellt betölthetjük, és helyben lefuttathatjuk a következtetést a test_trained_model.py
forgatókönyv:
A következő kimenetre számíthat a „Gyorsan nő a Covid-esetek!” bemenettel:
7. Készítse elő a modell tarballt a SageMaker következtetéshez
Abban a könyvtárban, ahol a modell található, hozzon létre egy új könyvtárat code
:
Az új könyvtárban hozza létre a fájlt inference.py
és adjuk hozzá a következőket:
Végül a következő mappaszerkezettel kell rendelkeznie:
A modell készen áll a csomagolásra és az Amazon S3-ra való feltöltésre, a SageMaker következtetéshez:
8. Telepítse a modellt egy SageMaker AWS Graviton példányon
A CPU-k új generációi a speciális beépített utasításoknak köszönhetően jelentős teljesítménynövekedést kínálnak az ML következtetések terén. Ebben a használati esetben a SageMaker teljesen felügyelt hosting infrastruktúrát használjuk AWS Graviton3 alapú C7g példányokkal. Az AWS emellett akár 50%-os költségmegtakarítást is mért a PyTorch következtetések esetében az AWS Graviton3 alapú EC2 C7g példányokkal a Torch Hub ResNet50 rendszerben, és több Hugging Face modellel a hasonló EC2 példányokhoz képest.
A modellek AWS Graviton példányokon való üzembe helyezéséhez AWS DLC-ket használunk, amelyek támogatják a PyTorch 2.0 és a TorchServe 0.8.0 verziókat, vagy hozza a saját konténereit amelyek kompatibilisek az ARMv8.2 architektúrával.
A korábban betanított modellt használjuk: s3://<your-s3-bucket>/twitter-roberta-base-sentiment-latest.tar.gz
. Ha még nem használta a SageMaker-t, tekintse át Kezdje el az Amazon SageMaker használatát.
Kezdésként győződjön meg arról, hogy a SageMaker csomag naprakész:
Mivel ez egy példa, hozzon létre egy nevű fájlt start_endpoint.py
és adja hozzá a következő kódot. Ez lesz a Python-szkript a SageMaker következtetési végpont elindításához a következő móddal:
A példányhoz az ml.c7g.4xlarge fájlt használjuk, és lekérjük a PT 2.0-t képhatókörrel inference_graviton
. Ez az AWS Graviton3 példányunk.
Ezután létrehozzuk azt a fájlt, amely az előrejelzést futtatja. Ezeket külön szkriptekként tesszük, hogy az előrejelzéseket annyiszor futtathassuk, ahányszor csak akarjuk. Teremt predict.py
a következő kóddal:
A generált szkriptekkel most elindíthatunk egy végpontot, előrejelzéseket készíthetünk a végponttal szemben, és megtisztíthatjuk, ha végeztünk:
9. Tisztítsa meg
Végül ebből a példából szeretnénk megtisztítani. Hozza létre a cleanup.py fájlt, és adja hozzá a következő kódot:
Következtetés
Az AWS DLAMI-k és DLC-k az AWS számítási és ML-szolgáltatások széles választékán történő mélytanulási munkaterhelések futtatásának alapszabványává váltak. Az AWS ML szolgáltatások keretrendszer-specifikus DLC-inek használata mellett egyetlen keretrendszert is használhat az Amazon EC2-n, amely eltávolítja a fejlesztők számára a mély tanulási alkalmazások létrehozásához és karbantartásához szükséges nehézségeket. Hivatkozni Kiadási megjegyzések a DLAMI-hoz és a Elérhető Deep Learning Containers képek az induláshoz.
Ez a bejegyzés bemutatta a sok lehetőség egyikét a következő modell AWS-en való betanítására és kiszolgálására, valamint számos olyan formátumot tárgyalt, amelyeket üzleti céljai elérése érdekében alkalmazhat. Próbálja ki ezt a példát, vagy használja más AWS ML szolgáltatásainkat, hogy növelje vállalkozása adattermelékenységét. Beépítettünk egy egyszerű hangulatelemzési problémát, hogy az ML-ben kezdő ügyfelek megértsék, milyen egyszerű az AWS-en futó PyTorch 2.0 használatának megkezdése. A következő blogbejegyzésekben a fejlettebb használati esetekkel, modellekkel és AWS-technológiákkal fogunk foglalkozni.
A szerzőkről
Kanwaljit Khurmi az Amazon Web Services fő megoldási építésze. Együttműködik az AWS-ügyfelekkel, hogy útmutatást és technikai segítséget nyújtson, segítve őket megoldásaik értékének növelésében az AWS használata során. A Kanwaljit arra specializálódott, hogy segítse az ügyfeleket konténeres és gépi tanulási alkalmazásokkal.
Mike Schneider rendszerfejlesztő, székhelye Phoenix AZ. Tagja a Deep Learning konténereknek, támogatva a különböző Framework konténerképeket, beleértve a Graviton Inference-t is. Az infrastruktúra hatékonyságának és stabilitásának elkötelezettje.
Lai Wei az Amazon Web Services vezető szoftvermérnöke. Könnyen használható, nagy teljesítményű és méretezhető mély tanulási keretrendszerek létrehozására összpontosít az elosztott modellképzés felgyorsítására. A munkán kívül szívesen tölt időt a családjával, túrázik és síel.
- SEO által támogatott tartalom és PR terjesztés. Erősödjön még ma.
- PlatoAiStream. Web3 adatintelligencia. Felerősített tudás. Hozzáférés itt.
- A jövő pénzverése – Adryenn Ashley. Hozzáférés itt.
- Részvények vásárlása és eladása PRE-IPO társaságokban a PREIPO® segítségével. Hozzáférés itt.
- Forrás: https://aws.amazon.com/blogs/machine-learning/part-1-build-high-performance-ml-models-using-pytorch-2-0-on-aws/
- :van
- :is
- :nem
- :ahol
- $ UP
- 1
- 10
- 100
- 11
- 12
- 13
- 14
- 15%
- 16
- 17
- 20
- 200
- 23
- 25
- 26%
- 28
- 31
- 7
- 8
- 9
- a
- gyorsul
- felgyorsult
- gyorsuló
- Elfogad!
- hozzáférés
- át
- Akció
- Ádám
- hozzá
- hozzáadott
- elfogadja
- fejlett
- Után
- ellen
- AI
- összehangolása
- igazított
- Minden termék
- lehetővé
- lehetővé téve
- lehetővé teszi, hogy
- mentén
- már
- Is
- amazon
- Amazon EC2
- Az Amazon Web Services
- AMD
- összeg
- an
- elemzés
- elemez
- és a
- bejelentés
- Másik
- bármilyen
- api
- Alkalmazás
- alkalmazások
- megközelítés
- körülbelül
- építészet
- VANNAK
- TERÜLET
- érv
- érvek
- mesterséges
- mesterséges intelligencia
- Mesterséges intelligencia (AI)
- AS
- Támogatás
- At
- elérhetőség
- elérhető
- átlagos
- AWS
- egyensúlyozó
- bázis
- alapján
- Alapvetően
- BE
- mert
- válik
- óta
- előtt
- kezdődik
- mögött
- benchmark
- referenciaértékek
- Nagy
- milliárd
- BIN
- Blog
- Blogbejegyzések
- test
- Alsó
- Agy
- széles
- költségvetés
- épít
- Épület
- épült
- beépített
- teher
- üzleti
- vállalkozások
- de
- by
- hívás
- hívott
- hívás
- TUD
- képességek
- eset
- esetek
- CD
- változik
- változó
- választás
- A pop-art design, négy időzóna kijelzése egyszerre és méretének arányai azok az érvek, amelyek a NeXtime Time Zones-t kiváló választássá teszik. Válassza a
- besorolás
- vásárló
- felhő
- kód
- COM
- kombináció
- jön
- közlés
- hasonló
- képest
- összeegyeztethető
- teljes
- Kiszámít
- számítógép
- Számítógépes látás
- számítástechnika
- Csatlakozás
- Fontolja
- áll
- Konzol
- Konténer
- Konténerek
- tartalom
- tartalomalkotás
- ellenőrzés
- Mag
- Költség
- költségmegtakarítás
- kiadások
- tudott
- fedő
- teremt
- készítette
- teremtés
- Hitelesítő adatok
- a válogatott
- Jelenlegi
- Ügyfelek
- testre
- dátum
- találka
- Nap
- elszánt
- mély
- mély tanulás
- alapértelmezett
- mutatja
- attól
- telepíteni
- telepített
- bevetés
- bevetések
- tervezett
- részletek
- fejlett
- Fejlesztő
- fejlesztők
- Fejlesztés
- különböző
- megemészteni
- megvitatni
- tárgyalt
- megosztott
- elosztott képzés
- számos
- do
- Dokkmunkás
- csinált
- ne
- letöltés
- letöltések
- gépkocsivezető
- illesztőprogramok
- vezetés
- két
- dinamikus
- minden
- Korábban
- könnyű
- könnyen
- könnyű
- hatás
- hatékonyan
- hatékonyság
- eredményesen
- erőfeszítés
- bármelyik
- lehetővé
- engedélyezve
- titkosítás
- végén
- Endpoint
- mérnök
- fokozott
- teljesen
- Környezet
- korszak
- hiba
- értékelni
- értékelés
- Még
- EVER
- Minden
- példa
- létező
- Bontsa
- vár
- tapasztalat
- feltárása
- exponenciális
- export
- terjed
- nyúlik
- szövet
- Arc
- család
- gyorsabb
- leggyorsabb
- Jellemzők
- kevés
- Ábra
- filé
- Fájlok
- utolsó
- Találjon
- vezetéknév
- megfelelő
- Rugalmasság
- úszó
- Összpontosít
- összpontosítás
- következik
- következő
- A
- Keretrendszer
- keretek
- ból ből
- teljesen
- további
- generál
- generált
- generáció
- generációk
- nemző
- Generatív AI
- kap
- megy
- GitHub
- Ad
- ad
- Globális
- GPU
- GPU
- Csoport
- Növekedés
- útmutatást
- Legyen
- tekintettel
- he
- nehéz
- súlyemelés
- segít
- segít
- nagy teljesítményű
- <p></p>
- legnagyobb
- övé
- tart
- vendéglátó
- tárhely
- Hogyan
- azonban
- HTML
- http
- HTTPS
- Kerékagy
- Több száz
- hibrid
- ID
- Identitás
- if
- illusztrálja
- kép
- képek
- végre
- végrehajtás
- importál
- javul
- javított
- javulás
- fejlesztések
- javuló
- in
- tartalmaz
- beleértve
- magában foglalja a
- Beleértve
- Növelje
- növekvő
- független
- iparágak
- Infrastruktúra
- bemenet
- telepíteni
- telepítve
- telepítése
- példa
- helyette
- utasítás
- integrál
- Intel
- Intelligencia
- bele
- Beruházások
- IP
- irónia
- IT
- ITS
- Állások
- jpg
- json
- Kulcs
- Címke
- nyelv
- nagy
- nagyarányú
- nagyobb
- Késleltetés
- legutolsó
- legutolsó kiadás
- indít
- vezetékek
- tanulás
- balra
- könyvtárak
- könyvtár
- emelő
- mint
- Korlátozott
- vonal
- linux
- Lista
- kiszámításának
- helyileg
- található
- zárt
- log
- Belépés
- le
- alacsonyabb
- legalacsonyabb
- gép
- gépi tanulás
- fenntartása
- csinál
- Gyártás
- kezelése
- sikerült
- sok
- matematikai
- max
- Lehet..
- Találkozik
- tag
- Memory design
- összeolvad
- Metaadatok
- módszer
- Metrics
- millió
- ML
- MLOps
- Mód
- modell
- modellek
- Modulok
- hónap
- több
- mozgó
- többszörös
- név
- Természetes
- Természetes nyelvi feldolgozás
- elengedhetetlen
- Szükség
- szükséges
- igények
- negatív
- hálózat
- hálózatba
- Semleges
- Új
- Új funkciók
- Új technológiák
- következő
- csomópontok
- Megjegyzések
- Értesítés..
- Most
- Nvidia
- célok
- of
- támadó
- ajánlat
- felajánlás
- Ajánlatok
- on
- ONE
- nyílt forráskódú
- nyit
- operatív
- optimalizálás
- optimalizált
- Opciók
- or
- hangszerelés
- szervezeti
- OS
- Más
- Egyéb
- mi
- ki
- teljesítmény
- kívül
- saját
- csomag
- becsomagolt
- paraméterek
- rész
- Tapasz
- Foltozás
- teljesítmény
- engedély
- engedélyek
- főnix
- vedd
- válogatott
- csővezeték
- emelvény
- Plató
- Platón adatintelligencia
- PlatoData
- kérem
- pont
- Politikák
- politika
- Népszerű
- lehetőségek
- állás
- Hozzászólások
- powered
- erős
- előre
- előrejelzés
- Tippek
- Készít
- előkészítése
- előfeltételek
- előző
- Fő
- Probléma
- folyamat
- feldolgozás
- processzorok
- Termelés
- termelékenység
- Termékek
- program
- projektek
- szabadalmazott
- igazolt
- ad
- biztosít
- nyilvános
- tesz
- Piton
- pytorch
- kész
- új
- nemrég
- ismétlődő
- csökkenteni
- vidék
- iktató hivatal
- rendszeresen
- relatív
- engedje
- megbízható
- megmaradó
- Számolt
- szükség
- kötelező
- követelmények
- megköveteli,
- forrás
- válasz
- korlátozások
- eredményez
- visszatérés
- Kritika
- Szerep
- gyökér
- futás
- futás
- sagemaker
- SageMaker következtetés
- azonos
- Megtakarítás
- skálázható
- Skála
- beolvasás
- scikit elsajátítható
- hatálya
- pontszám
- kaparni
- szkriptek
- Rész
- szakaszok
- biztonság
- biztonság
- lát
- kiválasztása
- kiválasztás
- elküldés
- idősebb
- érzés
- különálló
- szolgál
- szolgáltatás
- Szolgáltatások
- ülés
- készlet
- beállítások
- felépítés
- hét
- számos
- SHA256
- megosztott
- kellene
- kirakat
- kimutatta,
- mutatott
- Műsorok
- jelentős
- Egyszerű
- egyetlen
- Méret
- méretek
- So
- szoftver
- Software Engineer
- megoldások
- Megoldások
- néhány
- Hely
- specializált
- specializálódott
- különleges
- kifejezetten
- sebesség
- sebesség
- költ
- Költési
- Stabilitás
- verem
- standard
- kezdet
- kezdődött
- kezdődik
- nyilatkozat
- statisztika
- Lépés
- Lépései
- tárolás
- tárolási lehetőségek
- stratégiák
- struktúra
- ilyen
- támogatás
- Támogatott
- Támogató
- Támogatja
- rendszer
- Systems
- szabott
- feladatok
- Műszaki
- technikák
- Technologies
- tensorflow
- teszt
- kipróbált
- mint
- hogy
- A
- A terület
- azok
- Őket
- akkor
- Ezek
- ők
- dolgok
- ezt
- bár?
- Keresztül
- áteresztőképesség
- tier
- idő
- alkalommal
- nak nek
- szerszámok
- fáklya
- Vonat
- kiképzett
- Képzések
- transzformátor
- transzformerek
- transzformáló
- megpróbál
- csipog
- tweets
- kettő
- típus
- típusok
- tipikus
- Ubuntu
- alatt
- megért
- közelgő
- Frissítések
- frissítve
- frissítés
- feltöltve
- Használat
- használ
- használati eset
- használt
- Felhasználók
- segítségével
- hasznosság
- érték
- fajta
- különféle
- ellenőrzése
- változat
- látomás
- kötet
- sérülékenységek
- akar
- we
- háló
- webes szolgáltatások
- Hetek
- súly
- fogadtatás
- amikor
- ami
- széles körben
- lesz
- val vel
- nélkül
- Munka
- munkafolyamat
- művek
- ír
- írás
- X
- te
- A te
- zephyrnet
- zónák