PyTorch este un cadru de învățare automată (ML) care este utilizat pe scară largă de clienții AWS pentru o varietate de aplicații, cum ar fi viziunea computerizată, procesarea limbajului natural, crearea de conținut și multe altele. Odată cu recenta lansare PyTorch 2.0, clienții AWS pot face acum aceleași lucruri ca și cu PyTorch 1.x, dar mai rapid și la scară, cu viteze de antrenament îmbunătățite, utilizare mai redusă a memoriei și capacități distribuite îmbunătățite. Mai multe tehnologii noi, inclusiv torch.compile, TorchDynamo, AOTAutograd, PrimTorch și TorchInductor au fost incluse în versiunea PyTorch2.0. A se referi la PyTorch 2.0: versiunea noastră de nouă generație, care este mai rapidă, mai Pythonic și mai dinamică ca niciodată pentru detalii.
Această postare demonstrează performanța și ușurința rulării de formare și implementare a modelelor ML distribuite pe scară largă, de înaltă performanță, folosind PyTorch 2.0 pe AWS. Această postare prezintă în continuare o implementare pas cu pas de reglare fină a unui model RoBERTa (Abordare de preformare BERT optimizată robust) pentru analiza sentimentelor folosind AMI de învățare profundă AWS (AWS DLAMI) și Containere de învățare profundă AWS (DLC-uri) activate Cloud Elastic de calcul Amazon (Amazon EC2 p4d.24xlarge) cu o accelerare observată de 42% atunci când este utilizat cu lanterna PyTorch 2.0.compilare + bf16 + AdamW fuzionat. Modelul reglat fin este apoi implementat AWS GravitonInstanță C7g EC2 bazată pe Amazon SageMaker cu o accelerare observată de 10% în comparație cu PyTorch 1.13.
Următoarea figură arată un etalon de performanță de reglare fină a unui model RoBERTa pe Amazon EC2 p4d.24xlarge cu AWS PyTorch 2.0 DLAMI + DLC.
A se referi la Inferență PyTorch 2.0 optimizată cu procesoare AWS Graviton pentru detalii despre benchmark-urile de performanță a inferenței pe bază de instanță AWS Graviton pentru PyTorch 2.0.
Suport pentru PyTorch 2.0 pe AWS
Suportul PyTorch2.0 nu se limitează la serviciile și calcularea prezentate în exemplul de caz de utilizare din această postare; se extinde la multe altele pe AWS, despre care discutăm în această secțiune.
Cerință de afaceri
Mulți clienți AWS, dintr-un set divers de industrii, își transformă afacerile folosind inteligența artificială (AI), în special în zona AI generativă și modele de limbaj mari (LLM) care sunt concepute pentru a genera text asemănător omului. Acestea sunt practic modele mari bazate pe tehnici de învățare profundă care sunt antrenate cu sute de miliarde de parametri. Creșterea dimensiunilor modelului crește timpul de antrenament de la zile la săptămâni și chiar luni în unele cazuri. Acest lucru determină o creștere exponențială a costurilor de instruire și inferență, care necesită, mai mult ca niciodată, un cadru precum PyTorch 2.0 cu suport încorporat pentru formarea accelerată a modelelor și infrastructura optimizată a AWS, adaptată sarcinilor de lucru specifice și nevoilor de performanță.
Alegerea calculului
AWS oferă suport PyTorch 2.0 pentru cea mai largă gamă de opțiuni de calcul puternice, rețele de mare viteză și stocare scalabilă de înaltă performanță pe care le puteți utiliza pentru orice proiect sau aplicație ML și le puteți personaliza pentru a se potrivi cerințelor dvs. de performanță și buget. Acest lucru se manifestă în diagrama din secțiunea următoare; în partea de jos, oferim o selecție largă de instanțe de calcul alimentate de procesoare AWS Graviton, Nvidia, AMD și Intel.
Pentru implementări de model, puteți utiliza procesoare bazate pe ARM, cum ar fi instanța bazată pe AWS Graviton anunțată recent, care oferă performanță de inferență pentru PyTorch 2.0 cu o viteză de până la 3.5 ori mai mare pentru Resnet50, comparativ cu versiunea anterioară a PyTorch și de până la 1.4 ori mai mare decât cea a lui ResnetXNUMX. viteza pentru BERT, făcând instanțe bazate pe AWS Graviton cele mai rapide instanțe optimizate pentru calcul de pe AWS pentru soluții de inferență de model bazate pe CPU.
Alegerea serviciilor ML
Pentru a utiliza calculul AWS, puteți selecta dintr-un set larg de servicii globale bazate pe cloud pentru dezvoltarea ML, calculul și orchestrarea fluxului de lucru. Această alegere vă permite să vă aliniați cu strategiile de afaceri și cloud și să rulați joburi PyTorch 2.0 pe platforma dorită. De exemplu, dacă aveți restricții la nivel local sau investiții existente în produse open-source, puteți utiliza Amazon EC2, AWS ParallelCluster, Sau AWS UltraCluster pentru a rula sarcini de lucru de formare distribuite bazate pe o abordare autogestionată. De asemenea, puteți utiliza un serviciu complet gestionat, cum ar fi SageMaker, pentru o infrastructură de instruire optimizată din punct de vedere al costurilor, gestionată complet și la scară de producție. SageMaker se integrează, de asemenea, cu diverse instrumente MLOps, ceea ce vă permite să vă scalați implementarea modelului, să reduceți costurile de inferență, să gestionați mai eficient modelele în producție și să reduceți sarcina operațională.
În mod similar, dacă aveți investiții Kubernetes existente, puteți utiliza Serviciul Amazon Elastic Kubernetes (Amazon EKS) și Kubeflow pe AWS pentru a implementa o conductă ML pentru instruire distribuită sau pentru a utiliza un serviciu de orchestrare a containerelor nativ AWS, cum ar fi Serviciul Amazon de containere elastice (Amazon ECS) pentru instruire și implementare model. Opțiunile pentru a vă construi platforma ML nu se limitează la aceste servicii; puteți alege în funcție de cerințele dumneavoastră organizaționale pentru joburile dvs. PyTorch 2.0.
Activarea PyTorch 2.0 cu AWS DLAMI și AWS DLC
Pentru a utiliza stiva de servicii AWS menționată mai sus și un calcul puternic, trebuie să instalați o versiune compilată optimizată a cadrului PyTorch2.0 și a dependențelor sale necesare, multe dintre acestea fiind proiecte independente, și să le testați cap la cap. De asemenea, este posibil să aveți nevoie de biblioteci specifice CPU pentru rutine matematice accelerate, biblioteci specifice GPU pentru rutine de matematică accelerată și comunicații inter-GPU și drivere GPU care trebuie aliniate cu compilatorul GPU utilizat pentru compilarea bibliotecilor GPU. Dacă lucrările dvs. necesită instruire pe mai multe noduri la scară largă, aveți nevoie de o rețea optimizată care poate oferi cea mai mică latență și cel mai mare debit. După ce vă construiți stiva, trebuie să le scanați și să le corectați în mod regulat pentru vulnerabilități de securitate și să reconstruiți și să retestați stiva după fiecare actualizare a versiunii de cadru.
AWS ajută la reducerea acestei sarcini grele, oferind un set de cadre, dependențe și instrumente organizate și securizate pentru a accelera învățarea profundă în cloud. AWS DLAMI-uri și DLC-uri AWS. Aceste imagini și containere de mașini pre-construite și testate sunt optimizate pentru învățare profundă pe tipurile de instanțe de calcul accelerat EC2, permițându-vă să scalați la mai multe noduri pentru sarcini de lucru distribuite mai eficient și mai ușor. Include un pre-construit Adaptor pentru țesături elastice (EFA), stiva GPU Nvidia și multe cadre de învățare profundă (TensorFlow, MXNet și PyTorch cu cea mai recentă versiune 2.0) pentru instruire de învățare profundă distribuită de înaltă performanță. Nu trebuie să petreceți timp instalând și depanând software-ul și driverele de învățare profundă sau construirea infrastructurii ML și nici nu trebuie să suportați costurile recurente de corecție a acestor imagini pentru vulnerabilități de securitate sau recrearea imaginilor după fiecare actualizare a versiunii de cadru nouă. În schimb, vă puteți concentra pe efortul cu valoare adăugată mai mare de formare a locurilor de muncă la scară într-un timp mai scurt și de repetarea modelelor dvs. ML mai rapid.
Prezentare generală a soluțiilor
Având în vedere că instruirea pe GPU și inferența despre CPU este un caz de utilizare popular pentru clienții AWS, am inclus ca parte a acestei postări o implementare pas cu pas a unei arhitecturi hibride (după cum se arată în diagrama următoare). Vom explora arta posibilului și vom folosi o instanță P4 EC2 cu suport BF16 inițializată cu DLAMI GPU de bază, inclusiv drivere NVIDIA, CUDA, NCCL, stiva EFA și DLC PyTorch2.0 pentru reglarea fină a modelului de analiză a sentimentelor Roberta. care vă oferă control și flexibilitate pentru a utiliza orice bibliotecă open-source sau proprietară. Apoi folosim SageMaker pentru o infrastructură de găzduire a modelului complet gestionată pentru a găzdui modelul nostru pe baza AWS Graviton3. Instanțele C7g. Am ales C7g pe SageMaker, deoarece s-a dovedit că reduce costurile de inferență cu până la 50% față de instanțe EC2 comparabile pentru inferență în timp real pe SageMaker. Următoarea diagramă ilustrează această arhitectură.
Instruirea și găzduirea modelului în acest caz de utilizare constă din următorii pași:
- Lansați o instanță EC2 Ubuntu bazată pe GPU DLAMI în VPC-ul dvs. și conectați-vă la instanță folosind SSH.
- După ce vă conectați la instanța EC2, descărcați DLC-ul AWS PyTorch 2.0.
- Rulați containerul DLC cu un script de antrenament de model pentru a regla fin modelul Roberta.
- După finalizarea antrenamentului de model, împachetați modelul salvat, scripturile de inferență și câteva fișiere de metadate într-un fișier tar pe care SageMaker inferența îl poate folosi și încărcați pachetul model într-un Serviciul Amazon de stocare simplă Găleată (Amazon S3)
- Implementați modelul folosind SageMaker și creați un punct final de inferență HTTPS. Punctul final de inferență SageMaker deține un echilibrator de încărcare și una sau mai multe instanțe ale containerului de inferență în diferite zone de disponibilitate. Puteți implementa fie mai multe versiuni ale aceluiași model, fie modele complet diferite în spatele acestui punct final unic. În acest exemplu, găzduim un singur model.
- Invocați punctul final al modelului trimițându-i date de testare și verificați rezultatul inferenței.
În secțiunile următoare, prezentăm reglarea fină a unui model Roberta pentru analiza sentimentelor. RoBERTa este dezvoltat de Facebook AI, îmbunătățind modelul popular BERT prin modificarea hiperparametrilor cheie și pre-antrenare pe un corpus mai mare. Acest lucru duce la o performanță îmbunătățită în comparație cu vanilla BERT.
Noi folosim transformatoare bibliotecă de Hugging Face pentru a pregăti modelul RoBERTa pentru aproximativ 124 de milioane de tweet-uri și îl ajustam pe setul de date Twitter pentru analiza sentimentelor.
Cerințe preliminare
Asigurați-vă că îndepliniți următoarele cerințe preliminare:
- Ai un Cont AWS.
- Asigurați-vă că sunteți în
us-west-2
Regiune pentru a rula acest exemplu. (Acest exemplu este testat înus-west-2
; cu toate acestea, puteți rula în orice altă regiune.) - Creați un rol cu denumirea
sagemakerrole
. Adăugați politici gestionateAmazonSageMakerFullAccess
șiAmazonS3FullAccess
pentru a oferi SageMaker acces la compartimentele S3. - Creați un rol EC2 cu denumirea
ec2_role
. Utilizați următoarea politică de permisiuni:
1. Lansați instanța de dezvoltare
Creăm o instanță p4d.24xlarge care oferă 8 GPU-uri NVIDIA A100 Tensor Core în us-west-2
:
Când selectați AMI, urmați Note de lansare pentru a rula această comandă folosind Interfața liniei de comandă AWS (AWS CLI) pentru a găsi ID-ul AMI pe care să îl utilizați us-west-2
:
Asigurați-vă că dimensiunea volumului rădăcină gp3 este de 200 GiB.
Criptarea volumului EBS nu este activată în mod implicit. Luați în considerare modificarea acestei soluții atunci când mutați această soluție în producție.
2. Descărcați un container Deep Learning
DLC-urile AWS sunt disponibile ca imagini Docker în Amazon Elastic Container Registry Public, un serviciu de înregistrare a imaginilor containerelor AWS gestionat, care este sigur, scalabil și de încredere. Fiecare imagine Docker este construită pentru antrenament sau inferență pe o anumită versiune a cadrului de deep learning, versiunea Python, cu suport CPU sau GPU. Selectați cadrul PyTorch 2.0 din lista de disponibile Imagini de containere de învățare profundă.
Parcurgeți următorii pași pentru a descărca DLC-ul dvs.:
A. SSH către instanță. În mod implicit, grupul de securitate utilizat cu EC2 deschide portul SSH tuturor. Vă rugăm să luați în considerare acest lucru dacă mutați această soluție în producție:
În mod implicit, grupul de securitate utilizat cu Amazon EC2 deschide portul SSH tuturor. Luați în considerare modificarea acesteia dacă mutați această soluție în producție.
b. Setați variabilele de mediu necesare pentru a rula pașii rămași ai acestei implementări:
Amazon ECR acceptă depozite publice de imagini cu permisiuni bazate pe resurse folosind Gestionarea identității și accesului AWS (IAM), astfel încât anumiți utilizatori sau servicii să poată accesa imagini.
c. Conectați-vă la registrul DLC:
d. Trageți cel mai recent container PyTorch 2.0 cu suport GPU us-west-2
Dacă primești eroarea „nu rămâne spațiu pe dispozitiv”, asigură-te că creşte volumul EC2 EBS la 200 GiB și apoi extinde sistemul de fișiere Linux.
3. Clonează cele mai recente scripturi adaptate la PyTorch 2.0
Clonează scripturile cu următorul cod:
Deoarece folosim API-ul Hugging Face transformers cu cea mai recentă versiune 4.28.1, acesta a activat deja suportul PyTorch 2.0. Am adăugat următorul argument la API-ul de antrenor în train_sentiment.py
pentru a activa noile funcții PyTorch 2.0:
- Compilare Torch – Experimentați o accelerare medie de 43% pe GPU-urile Nvidia A100 cu o singură linie de schimbare.
- Tipul de date BF16 – Suport nou tip de date (Brain Floating Point) pentru Ampere sau GPU-uri mai noi.
- Optimizator AdamW fuzionat – Implementarea AdamW a fuzionat pentru a accelera și mai mult instruirea. Această metodă de optimizare stocastică modifică implementarea tipică a scăderii ponderii în Adam prin decuplarea scăderii ponderii de actualizarea gradientului.
4. Construiți o nouă imagine Docker cu dependențe
Extindem imaginea DLC pre-construită PyTorch 2.0 pentru a instala transformatorul Hugging Face și alte biblioteci de care avem nevoie pentru a ne ajusta modelul. Acest lucru vă permite să utilizați bibliotecile și setările de deep learning testate și optimizate incluse fără a fi nevoie să creați o imagine de la zero. Vezi următorul cod:
5. Începeți antrenamentul folosind containerul
Rulați următoarea comandă Docker pentru a începe reglarea fină a modelului pe tweet_eval
set de date despre sentimente. Folosim argumentele containerului Docker (dimensiunea memoriei partajate, memoria maximă blocată și dimensiunea stivei) recomandat de Nvidia pentru sarcinile de lucru de deep learning.
Ar trebui să vă așteptați la următoarea ieșire. Scriptul descarcă mai întâi setul de date TweetEval, care constă din șapte sarcini eterogene în Twitter, toate încadrate ca clasificare a tweet-urilor cu mai multe clase. Sarcinile includ ironie, ură, ofensivă, poziție, emoji, emoție și sentiment.
Scriptul descarcă apoi modelul de bază și începe procesul de reglare fină. Măsurile de instruire și evaluare sunt raportate la sfârșitul fiecărei epoci.
Statistici de performanță
Cu PyTorch 2.0 și cea mai recentă bibliotecă de transformatoare Hugging Face 4.28.1, am observat o accelerare de 42% pe o singură instanță p4d.24xlarge cu 8 GPU-uri A100 de 40 GB. Îmbunătățirile de performanță provin dintr-o combinație de torch.compile, tipul de date BF16 și optimizatorul AdamW fuzionat. Următorul cod este rezultatul final al a două curse de antrenament cu și fără funcții noi:
6. Testați modelul instruit la nivel local înainte de a vă pregăti pentru inferența SageMaker
Puteți găsi următoarele fișiere sub $ml_working_dir/saved_model/
dupa antrenament:
Să ne asigurăm că putem rula inferența local înainte de a ne pregăti pentru inferența SageMaker. Putem încărca modelul salvat și rula inferența local folosind test_trained_model.py
scenariu:
Ar trebui să vă așteptați la următoarea ieșire cu intrarea „Cazurile Covid cresc rapid!”:
7. Pregătiți tarball-ul modelului pentru inferența SageMaker
Sub directorul în care se află modelul, creați un nou director numit code
:
În noul director, creați fișierul inference.py
și adăugați următoarele:
În cele din urmă, ar trebui să aveți următoarea structură de foldere:
Modelul este gata pentru a fi ambalat și încărcat pe Amazon S3 pentru a fi utilizat cu inferența SageMaker:
8. Implementați modelul pe o instanță SageMaker AWS Graviton
Noile generații de procesoare oferă o îmbunătățire semnificativă a performanței în inferența ML datorită instrucțiunilor încorporate specializate. În acest caz de utilizare, folosim infrastructura de găzduire complet gestionată SageMaker cu instanțe C3g bazate pe AWS Graviton7. AWS a măsurat, de asemenea, economii de până la 50% la costuri pentru inferența PyTorch cu instanțe EC3 C2g bazate pe AWS Graviton7 prin Torch Hub ResNet50 și mai multe modele Hugging Face față de instanțe EC2 comparabile.
Pentru a implementa modelele în instanțe AWS Graviton, folosim DLC-uri AWS care oferă suport pentru PyTorch 2.0 și TorchServe 0.8.0, sau puteți aduceți-vă propriile recipiente care sunt compatibile cu arhitectura ARMv8.2.
Folosim modelul pe care l-am antrenat mai devreme: s3://<your-s3-bucket>/twitter-roberta-base-sentiment-latest.tar.gz
. Dacă nu ați folosit SageMaker înainte, revizuiți Începeți cu Amazon SageMaker.
Pentru a începe, asigurați-vă că pachetul SageMaker este actualizat:
Deoarece acesta este un exemplu, creați un fișier numit start_endpoint.py
și adăugați următorul cod. Acesta va fi scriptul Python pentru a porni un punct final de inferență SageMaker cu modul:
Folosim ml.c7g.4xlarge pentru instanță și recuperăm PT 2.0 cu un scop de imagine inference_graviton
. Aceasta este instanța noastră AWS Graviton3.
Apoi, creăm fișierul care rulează predicția. Facem acestea ca scripturi separate, astfel încât să putem rula predicțiile de câte ori vrem. Crea predict.py
cu următorul cod:
Cu scripturile generate, acum putem începe un punct final, putem face predicții față de punctul final și putem curăța când am terminat:
9. Curățați
În cele din urmă, vrem să curățăm din acest exemplu. Creați cleanup.py și adăugați următorul cod:
Concluzie
DLAMI-urile și DLC-urile AWS au devenit standardul de bază pentru rularea sarcinilor de lucru de deep learning pe o selecție largă de servicii de calcul și ML pe AWS. Pe lângă utilizarea DLC-urilor specifice cadrului pe serviciile AWS ML, puteți folosi și un singur cadru pe Amazon EC2, care elimină sarcinile grele necesare dezvoltatorilor pentru a construi și menține aplicații de deep learning. A se referi la Note de lansare pentru DLAMI și Imagini disponibile ale containerelor Deep Learning pentru a începe.
Această postare a arătat una dintre multele posibilități de a vă instrui și de a servi următorul model pe AWS și a discutat despre mai multe formate pe care le puteți adopta pentru a vă îndeplini obiectivele de afaceri. Încercați acest exemplu sau utilizați celelalte servicii AWS ML pentru a extinde productivitatea datelor pentru afacerea dvs. Am inclus o problemă simplă de analiză a sentimentelor, astfel încât clienții nou la ML să poată înțelege cât de simplu este să înceapă cu PyTorch 2.0 pe AWS. Vom acoperi cazuri de utilizare, modele și tehnologii AWS mai avansate în postările viitoare de blog.
Despre autori
Kanwaljit Khurmi este arhitect principal de soluții la Amazon Web Services. El lucrează cu clienții AWS pentru a oferi îndrumări și asistență tehnică, ajutându-i să-și îmbunătățească valoarea soluțiilor atunci când folosesc AWS. Kanwaljit este specializată în a ajuta clienții cu aplicații containerizate și de învățare automată.
Mike Schneider este un dezvoltator de sisteme, cu sediul în Phoenix AZ. El este membru al containerelor Deep Learning, care acceptă diverse imagini de containere Framework, inclusiv Graviton Inference. El este dedicat eficienței și stabilității infrastructurii.
Lai Wei este inginer software senior la Amazon Web Services. El se concentrează pe construirea de cadre de învățare profundă ușor de utilizat, de înaltă performanță și scalabile pentru accelerarea instruirii modelelor distribuite. În afara serviciului, îi place să petreacă timpul cu familia sa, drumeții și schi.
- Distribuție de conținut bazat pe SEO și PR. Amplifică-te astăzi.
- PlatoAiStream. Web3 Data Intelligence. Cunoștințe amplificate. Accesați Aici.
- Mintând viitorul cu Adryenn Ashley. Accesați Aici.
- Cumpărați și vindeți acțiuni în companii PRE-IPO cu PREIPO®. Accesați Aici.
- Sursa: https://aws.amazon.com/blogs/machine-learning/part-1-build-high-performance-ml-models-using-pytorch-2-0-on-aws/
- :are
- :este
- :nu
- :Unde
- $UP
- 1
- 10
- 100
- 11
- 12
- 13
- 14
- 15%
- 16
- 17
- 20
- 200
- 23
- 25
- 26%
- 28
- 31
- 7
- 8
- 9
- a
- accelera
- accelerat
- accelerarea
- Accept
- acces
- peste
- Acțiune
- Adam
- adăuga
- adăugat
- adopta
- avansat
- După
- împotriva
- AI
- alinia
- aliniat
- TOATE
- permite
- Permiterea
- permite
- de-a lungul
- deja
- de asemenea
- Amazon
- Amazon EC2
- Amazon Web Services
- AMD
- sumă
- an
- analiză
- analiza
- și
- a anunțat
- O alta
- Orice
- api
- aplicație
- aplicatii
- abordare
- aproximativ
- arhitectură
- SUNT
- ZONĂ
- argument
- argumente
- artificial
- inteligență artificială
- Inteligența artificială (AI)
- AS
- Asistență
- At
- disponibilitate
- disponibil
- in medie
- AWS
- echilibrist
- de bază
- bazat
- Pe scurt
- BE
- deoarece
- deveni
- fost
- înainte
- începe
- în spatele
- Benchmark
- valori de referință
- Mare
- miliarde
- BIN
- Blog
- Blog
- corp
- De jos
- Creier
- larg
- buget
- construi
- Clădire
- construit
- construit-in
- povară
- afaceri
- întreprinderi
- dar
- by
- apel
- denumit
- apel
- CAN
- capacități
- caz
- cazuri
- CD
- Schimbare
- schimbarea
- alegere
- Alege
- clasificare
- client
- Cloud
- cod
- COM
- combinaţie
- vine
- Comunicare
- comparabil
- comparație
- compatibil
- Completă
- Calcula
- calculator
- Computer Vision
- tehnica de calcul
- Conectați
- Lua în considerare
- constă
- Consoleze
- Recipient
- Containere
- conţinut
- crearea de continut
- Control
- Nucleu
- A costat
- economii
- Cheltuieli
- ar putea
- acoperire
- crea
- a creat
- creaţie
- scrisori de acreditare
- curator
- Curent
- clienţii care
- personaliza
- de date
- Data
- Zi
- dedicat
- adânc
- învățare profundă
- Mod implicit
- demonstrează
- În funcție
- implementa
- dislocate
- desfășurarea
- implementări
- proiectat
- detalii
- dezvoltat
- Dezvoltator
- Dezvoltatorii
- Dezvoltare
- diferit
- rezumat
- discuta
- discutat
- distribuite
- instruire distribuită
- diferit
- do
- Docher
- făcut
- Dont
- Descarca
- download-uri
- şofer
- drivere
- conducere
- două
- dinamic
- fiecare
- Mai devreme
- uşura
- cu ușurință
- uşor
- efect
- în mod eficient
- eficiență
- eficient
- efort
- oricare
- permite
- activat
- criptare
- capăt
- Punct final
- inginer
- sporită
- în întregime
- Mediu inconjurator
- epocă
- eroare
- evalua
- evaluare
- Chiar
- EVER
- Fiecare
- exemplu
- existent
- Extinde
- aștepta
- experienţă
- explora
- exponențială
- exporturile
- extinde
- extinde
- țesătură
- Față
- familie
- mai repede
- cel mai rapid
- DESCRIERE
- puțini
- Figura
- Fișier
- Fişiere
- final
- Găsi
- First
- potrivi
- Flexibilitate
- plutitor
- Concentra
- concentrându-se
- urma
- următor
- Pentru
- Cadru
- cadre
- din
- complet
- mai mult
- genera
- generată
- generaţie
- generații
- generativ
- AI generativă
- obține
- merge
- GitHub
- Da
- oferă
- Caritate
- GPU
- unități de procesare grafică
- grup
- Creștere
- îndrumare
- Avea
- având în
- he
- greu
- ridicare de greutati
- ajutor
- ajută
- performanta ridicata
- superior
- cea mai mare
- lui
- deține
- gazdă
- găzduire
- Cum
- Totuși
- HTML
- http
- HTTPS
- Butuc
- sute
- Hibrid
- ID
- Identitate
- if
- ilustrează
- imagine
- imagini
- punerea în aplicare a
- implementarea
- import
- îmbunătăţi
- îmbunătățit
- îmbunătățire
- îmbunătățiri
- îmbunătățirea
- in
- include
- inclus
- include
- Inclusiv
- Crește
- crescând
- independent
- industrii
- Infrastructură
- intrare
- instala
- instalat
- Instalarea
- instanță
- in schimb
- instrucțiuni
- integreaza
- Intel
- Inteligență
- în
- Investiții
- IP
- ironie
- IT
- ESTE
- Locuri de munca
- jpg
- JSON
- Cheie
- Etichetă
- limbă
- mare
- pe scară largă
- mai mare
- Latență
- Ultimele
- ultima lansare
- lansa
- Conduce
- învăţare
- stânga
- biblioteci
- Bibliotecă
- ridicare
- ca
- Limitat
- Linie
- linux
- Listă
- încărca
- la nivel local
- situat
- blocat
- log
- Logare
- de pe
- LOWER
- cel mai mic
- maşină
- masina de învățare
- menține
- face
- Efectuarea
- administra
- gestionate
- multe
- matematica
- max
- Mai..
- Întâlni
- membru
- Memorie
- fuzionează
- Metadata
- metodă
- Metrici
- milion
- ML
- MLOps
- mod
- model
- Modele
- Module
- luni
- mai mult
- în mişcare
- multiplu
- nume
- Natural
- Procesarea limbajului natural
- necesar
- Nevoie
- necesar
- nevoilor
- negativ
- reţea
- rețele
- Neutru
- Nou
- Funcții noi
- Noi tehnologii
- următor
- noduri
- notițe
- Înștiințare..
- acum
- Nvidia
- Obiectivele
- of
- ofensator
- oferi
- oferind
- promoții
- on
- ONE
- open-source
- deschide
- operațional
- optimizare
- optimizate
- Opţiuni
- or
- orchestrație
- de organizare
- OS
- Altele
- Altele
- al nostru
- afară
- producție
- exterior
- propriu
- pachet
- ambalate
- parametrii
- parte
- Plasture
- patching
- performanță
- permisiune
- permisiuni
- fenix
- alege
- ales
- conducte
- platformă
- Plato
- Informații despre date Platon
- PlatoData
- "vă rog"
- Punct
- Politicile
- Politica
- Popular
- posibilităţile de
- Post
- postări
- alimentat
- puternic
- prezice
- prezicere
- Predictii
- Pregăti
- pregătirea
- premise
- precedent
- Principal
- Problemă
- proces
- prelucrare
- procesoare
- producere
- productivitate
- Produse
- proiect
- Proiecte
- proprietate
- dovedit
- furniza
- furnizează
- public
- pune
- Piton
- pirtorh
- gata
- recent
- recent
- recurente
- reduce
- regiune
- registru
- regulat
- relativ
- eliberaţi
- de încredere
- rămas
- Raportat
- necesita
- necesar
- Cerinţe
- Necesită
- resursă
- răspuns
- restricții
- rezultat
- reveni
- revizuiască
- Rol
- rădăcină
- Alerga
- funcţionare
- sagemaker
- SageMaker Inference
- acelaşi
- Economie
- scalabil
- Scară
- scanare
- scikit-learn
- domeniu
- scor
- zgâria
- script-uri
- Secțiune
- secțiuni
- sigur
- securitate
- vedea
- selectarea
- selecţie
- trimitere
- senior
- sentiment
- distinct
- servi
- serviciu
- Servicii
- sesiune
- set
- setări
- configurarea
- Șapte
- câteva
- SHA256
- comun
- să
- prezenta
- a arătat
- indicat
- Emisiuni
- semnificativ
- simplu
- singur
- Mărimea
- dimensiuni
- So
- Software
- Inginer Software
- soluţie
- soluţii
- unele
- Spaţiu
- de specialitate
- specializată
- specific
- specific
- viteză
- viteze
- petrece
- Cheltuire
- Stabilitate
- stivui
- standard
- Începe
- început
- începe
- Declarație
- statistică
- Pas
- paşi
- depozitare
- opțiuni de stocare
- strategii
- structura
- astfel de
- a sustine
- Suportat
- De sprijin
- Sprijină
- sistem
- sisteme
- adaptate
- sarcini
- Tehnic
- tehnici de
- Tehnologii
- tensorflow
- test
- testat
- decât
- acea
- Zona
- lor
- Lor
- apoi
- Acestea
- ei
- lucruri
- acest
- deşi?
- Prin
- debit
- Nivelul
- timp
- ori
- la
- Unelte
- lanternă
- Tren
- dresat
- Pregătire
- transformator
- transformatoare
- transformare
- încerca
- tweet
- tweets
- stare de nervozitate
- Două
- tip
- Tipuri
- tipic
- Ubuntu
- în
- înţelege
- viitoare
- Actualizează
- actualizat
- upgrade-ul
- încărcat
- Folosire
- utilizare
- carcasa de utilizare
- utilizat
- utilizatorii
- folosind
- utilitate
- valoare
- varietate
- diverse
- verifica
- versiune
- viziune
- volum
- Vulnerabilitățile
- vrea
- we
- web
- servicii web
- săptămâni
- greutate
- bun venit
- cand
- care
- pe larg
- voi
- cu
- fără
- Apartamente
- flux de lucru
- fabrică
- scrie
- scris
- X
- Tu
- Ta
- zephyrnet
- zone