PyTorch è un framework di machine learning (ML) ampiamente utilizzato dai clienti AWS per una varietà di applicazioni, come la visione artificiale, l'elaborazione del linguaggio naturale, la creazione di contenuti e altro ancora. Con la recente versione di PyTorch 2.0, i clienti AWS possono ora fare le stesse cose che potevano fare con PyTorch 1.x, ma più velocemente e su larga scala con velocità di addestramento migliorate, minore utilizzo della memoria e capacità distribuite migliorate. Diverse nuove tecnologie tra cui torch.compile, TorchDynamo, AOTAutograd, PrimTorch e TorchInductor sono state incluse nella versione PyTorch2.0. Fare riferimento a PyTorch 2.0: la nostra versione di nuova generazione più veloce, più Pythonic e dinamica che mai per i dettagli.
Questo post dimostra le prestazioni e la facilità di esecuzione dell'addestramento e della distribuzione di modelli ML distribuiti su larga scala e ad alte prestazioni utilizzando PyTorch 2.0 su AWS. Questo post illustra ulteriormente un'implementazione dettagliata della messa a punto di un modello RoBERTa (Robustly Optimized BERT Pretraining Approach) per l'analisi del sentiment utilizzando AMI di apprendimento profondo AWS (AWS DLAMI) e Contenitori per l'apprendimento profondo AWS (DLC) attivi Cloud di calcolo elastico di Amazon (Amazon EC2 p4d.24xlarge) con un aumento della velocità osservato del 42% se utilizzato con PyTorch 2.0 torch.compile + bf16 + fused AdamW. Il modello ottimizzato viene quindi distribuito Gravitone AWSistanza C7g EC2 basata su Amazon Sage Maker con un'accelerazione osservata del 10% rispetto a PyTorch 1.13.
La figura seguente mostra un benchmark delle prestazioni della messa a punto di un modello RoBERTa su Amazon EC2 p4d.24xlarge con AWS PyTorch 2.0 DLAMI + DLC.
Fare riferimento a Inferenza PyTorch 2.0 ottimizzata con i processori AWS Graviton per i dettagli sui benchmark delle prestazioni di inferenza delle istanze basate su AWS Graviton per PyTorch 2.0.
Supporto per PyTorch 2.0 su AWS
Il supporto PyTorch2.0 non è limitato ai servizi e al calcolo mostrati nel caso d'uso di esempio in questo post; si estende a molti altri su AWS, di cui parleremo in questa sezione.
Requisito di business
Molti clienti AWS, in una serie diversificata di settori, stanno trasformando le proprie attività utilizzando l'intelligenza artificiale (AI), in particolare nell'area dell'IA generativa e dei modelli di linguaggio di grandi dimensioni (LLM) progettati per generare testo simile a quello umano. Questi sono fondamentalmente grandi modelli basati su tecniche di deep learning che vengono addestrati con centinaia di miliardi di parametri. La crescita delle dimensioni dei modelli sta aumentando il tempo di formazione da giorni a settimane e in alcuni casi anche mesi. Ciò sta determinando un aumento esponenziale dei costi di formazione e inferenza, che richiede, più che mai, un framework come PyTorch 2.0 con supporto integrato per la formazione accelerata del modello e l'infrastruttura ottimizzata di AWS su misura per i carichi di lavoro specifici e le esigenze di prestazioni.
Scelta del calcolo
AWS fornisce supporto PyTorch 2.0 sulla più ampia scelta di potenti opzioni di calcolo, networking ad alta velocità e storage scalabile ad alte prestazioni che puoi utilizzare per qualsiasi progetto o applicazione ML e personalizzare per soddisfare i tuoi requisiti di prestazioni e budget. Ciò si manifesta nel diagramma nella sezione successiva; nel livello inferiore, forniamo un'ampia selezione di istanze di calcolo alimentate da processori AWS Graviton, Nvidia, AMD e Intel.
Per le distribuzioni di modelli, puoi utilizzare processori basati su ARM come l'istanza basata su AWS Graviton recentemente annunciata che fornisce prestazioni di inferenza per PyTorch 2.0 con una velocità fino a 3.5 volte superiore per Resnet50 rispetto alla versione precedente di PyTorch e fino a 1.4 volte la velocità velocità per BERT, rendendo le istanze basate su Graviton di AWS le istanze ottimizzate per il calcolo più veloci su AWS per le soluzioni di inferenza del modello basate su CPU.
Scelta dei servizi ML
Per utilizzare il calcolo AWS, puoi scegliere tra un'ampia gamma di servizi globali basati su cloud per lo sviluppo ML, il calcolo e l'orchestrazione del flusso di lavoro. Questa scelta ti consente di allinearti con le tue strategie aziendali e cloud ed eseguire lavori PyTorch 2.0 sulla piattaforma di tua scelta. Ad esempio, se disponi di limitazioni locali o investimenti esistenti in prodotti open source, puoi utilizzare Amazon EC2, AWS ParallelCluster, o AWS Ultracluster per eseguire carichi di lavoro di formazione distribuiti basati su un approccio autogestito. Puoi anche utilizzare un servizio completamente gestito come SageMaker per un'infrastruttura di formazione ottimizzata in termini di costi, completamente gestita e su scala di produzione. SageMaker si integra inoltre con vari strumenti MLOps, che consentono di ridimensionare la distribuzione del modello, ridurre i costi di inferenza, gestire i modelli in modo più efficace nella produzione e ridurre il carico operativo.
Allo stesso modo, se disponi di investimenti Kubernetes esistenti, puoi anche utilizzare Servizio Amazon Elastic Kubernetes (Amazon EKS) e Kubeflow su AWS per implementare una pipeline ML per l'addestramento distribuito o utilizzare un servizio di orchestrazione di container nativo di AWS come Servizio di container elastici Amazon (Amazon ECS) per l'addestramento e le distribuzioni dei modelli. Le opzioni per creare la tua piattaforma ML non si limitano a questi servizi; puoi scegliere e scegliere in base ai tuoi requisiti organizzativi per i tuoi lavori PyTorch 2.0.
Abilitazione di PyTorch 2.0 con AWS DLAMI e AWS DLC
Per utilizzare il suddetto stack di servizi AWS e un potente calcolo, devi installare una versione compilata ottimizzata del framework PyTorch2.0 e le relative dipendenze richieste, molte delle quali sono progetti indipendenti, e testarle end-to-end. Potrebbero inoltre essere necessarie librerie specifiche della CPU per routine matematiche accelerate, librerie specifiche per GPU per routine matematiche accelerate e di comunicazione tra GPU e driver GPU che devono essere allineati con il compilatore GPU utilizzato per compilare le librerie GPU. Se i tuoi lavori richiedono una formazione multinodo su larga scala, hai bisogno di una rete ottimizzata in grado di fornire la latenza più bassa e il throughput più elevato. Dopo aver creato il tuo stack, devi scansionarli regolarmente e correggerli per le vulnerabilità di sicurezza e ricostruire e ripetere il test dello stack dopo ogni aggiornamento della versione del framework.
AWS aiuta a ridurre questo carico di lavoro offrendo un set curato e sicuro di framework, dipendenze e strumenti per accelerare il deep learning nel cloud DLAMI AWS ed DLC AWS. Queste immagini e contenitori di macchine precostruiti e testati sono ottimizzati per il deep learning sui tipi di istanza di calcolo accelerato EC2, consentendoti di scalare in orizzontale su più nodi per carichi di lavoro distribuiti in modo più efficiente e semplice. Include un file pre-costruito Adattatore in tessuto elastico (EFA), stack GPU Nvidia e molti framework di deep learning (TensorFlow, MXNet e PyTorch con l'ultima versione 2.0) per la formazione di deep learning distribuita ad alte prestazioni. Non è necessario dedicare tempo all'installazione e alla risoluzione dei problemi di software e driver di deep learning o alla creazione di un'infrastruttura ML, né è necessario sostenere i costi ricorrenti per l'applicazione di patch a queste immagini per le vulnerabilità della sicurezza o per ricreare le immagini dopo ogni aggiornamento della nuova versione del framework. Invece, puoi concentrarti sullo sforzo a valore aggiunto più elevato della formazione dei lavori su larga scala in un lasso di tempo più breve e sull'iterazione dei tuoi modelli ML più velocemente.
Panoramica della soluzione
Considerando che la formazione sulla GPU e l'inferenza sulla CPU è un caso d'uso popolare per i clienti AWS, abbiamo incluso in questo post un'implementazione passo passo di un'architettura ibrida (come mostrato nel diagramma seguente). Esploreremo l'arte del possibile e utilizzeremo un'istanza EC4 P2 con supporto BF16 inizializzato con DLAMI GPU di base che include driver NVIDIA, CUDA, NCCL, stack EFA e DLC PyTorch2.0 per mettere a punto un modello di analisi del sentiment RoBERTa che ti offre controllo e flessibilità per utilizzare qualsiasi libreria open source o proprietaria. Quindi utilizziamo SageMaker per un'infrastruttura di hosting di modelli completamente gestita per ospitare il nostro modello su AWS Graviton3 istanze C7g. Abbiamo scelto C7g su SageMaker perché ha dimostrato di ridurre i costi di inferenza fino al 50% rispetto a istanze EC2 comparabili per inferenza in tempo reale su SageMaker. Il diagramma seguente illustra questa architettura.
L'addestramento e l'hosting del modello in questo caso d'uso sono costituiti dai seguenti passaggi:
- Avvia un'istanza Ubuntu EC2 basata su GPU DLAMI nel tuo VPC e connettiti all'istanza tramite SSH.
- Dopo aver effettuato l'accesso all'istanza EC2, scarica il DLC AWS PyTorch 2.0.
- Esegui il tuo contenitore DLC con uno script di addestramento del modello per mettere a punto il modello RoBERTa.
- Al termine dell'addestramento del modello, impacchetta il modello salvato, gli script di inferenza e alcuni file di metadati in un file tar che l'inferenza di SageMaker può utilizzare e carica il pacchetto del modello in un Servizio di archiviazione semplice Amazon (Amazon S3) secchio.
- Distribuisci il modello utilizzando SageMaker e crea un endpoint di inferenza HTTPS. L'endpoint di inferenza SageMaker contiene un sistema di bilanciamento del carico e una o più istanze del tuo container di inferenza in diverse zone di disponibilità. Puoi distribuire più versioni dello stesso modello o modelli completamente diversi dietro questo singolo endpoint. In questo esempio, ospitiamo un singolo modello.
- Richiama l'endpoint del modello inviandogli i dati di test e verifica l'output dell'inferenza.
Nelle sezioni seguenti, mostriamo la messa a punto di un modello RoBERTa per l'analisi del sentiment. RoBERTa è sviluppato da Facebook AI, migliorando il popolare modello BERT modificando gli iperparametri chiave e il pre-addestramento su un corpus più ampio. Ciò porta a prestazioni migliori rispetto a Vanilla BERT.
Usiamo il trasformatori libreria di Hugging Face per ottenere il modello RoBERTa pre-addestrato su circa 124 milioni di tweet e lo perfezioniamo sul set di dati di Twitter per l'analisi del sentiment.
Prerequisiti
Assicurati di soddisfare i seguenti prerequisiti:
- Si dispone di un Account AWS.
- Assicurati di essere nel file
us-west-2
Region per eseguire questo esempio. (Questo esempio è testato inus-west-2
; tuttavia, puoi correre in qualsiasi altra regione.) - Crea un ruolo con il nome
sagemakerrole
. Aggiungi criteri gestitiAmazonSageMakerFullAccess
edAmazonS3FullAccess
per concedere a SageMaker l'accesso ai bucket S3. - Crea un ruolo EC2 con il nome
ec2_role
. Utilizza la seguente policy di autorizzazione:
1. Avvia la tua istanza di sviluppo
Creiamo un'istanza p4d.24xlarge che offre 8 GPU NVIDIA A100 Tensor Core in us-west-2
:
Quando si seleziona l'AMI, seguire il note di rilascio per eseguire questo comando utilizzando il Interfaccia della riga di comando di AWS (AWS CLI) per trovare l'ID AMI da utilizzare us-west-2
:
Assicurati che la dimensione del volume root gp3 sia 200 GiB.
La crittografia del volume EBS non è abilitata per impostazione predefinita. Prendere in considerazione la possibilità di modificarlo quando si sposta questa soluzione in produzione.
2. Scarica un contenitore di deep learning
I DLC AWS sono disponibili come immagini Docker in Amazon Elastic Container Registry pubblico, un servizio di registro delle immagini di container AWS gestito che è sicuro, scalabile e affidabile. Ogni immagine Docker è creata per l'addestramento o l'inferenza su una specifica versione del framework di deep learning, versione Python, con supporto per CPU o GPU. Seleziona il framework PyTorch 2.0 dall'elenco dei disponibili Immagini dei contenitori di deep learning.
Completa i seguenti passaggi per scaricare il tuo DLC:
UN. SSH all'istanza. Per impostazione predefinita, il gruppo di sicurezza utilizzato con EC2 apre la porta SSH a tutti. Considera questo se stai spostando questa soluzione in produzione:
Per impostazione predefinita, il gruppo di sicurezza utilizzato con Amazon EC2 apre la porta SSH a tutti. Prendi in considerazione la possibilità di modificarlo se stai spostando questa soluzione in produzione.
B. Imposta le variabili di ambiente necessarie per eseguire i passaggi rimanenti di questa implementazione:
Amazon ECR supporta repository di immagini pubbliche con autorizzazioni basate sulle risorse utilizzando Gestione dell'identità e dell'accesso di AWS (IAM) in modo che utenti o servizi specifici possano accedere alle immagini.
C. Accedi al registro dei DLC:
D. Inserisci l'ultimo contenitore PyTorch 2.0 con supporto GPU us-west-2
Se ricevi l'errore "nessuno spazio rimasto sul dispositivo", assicurati di aumentare il volume EBS EC2 a 200 GiB e poi estendere il filesystem di Linux.
3. Clonare gli ultimi script adattati a PyTorch 2.0
Clonare gli script con il seguente codice:
Poiché stiamo utilizzando l'API dei trasformatori Hugging Face con l'ultima versione 4.28.1, ha già abilitato il supporto PyTorch 2.0. Abbiamo aggiunto il seguente argomento all'API trainer in train_sentiment.py
per abilitare le nuove funzionalità di PyTorch 2.0:
- Compilazione della torcia – Sperimenta un aumento medio della velocità del 43% sulle GPU Nvidia A100 con un'unica linea di modifica.
- Tipo di dati BF16 – Nuovo supporto del tipo di dati (Brain Floating Point) per GPU Ampere o più recenti.
- Ottimizzatore AdamW fuso – Implementazione fusa di AdamW per accelerare ulteriormente la formazione. Questo metodo di ottimizzazione stocastica modifica l'implementazione tipica del decadimento del peso in Adam disaccoppiando il decadimento del peso dall'aggiornamento del gradiente.
4. Crea una nuova immagine Docker con dipendenze
Estendiamo l'immagine DLC PyTorch 2.0 predefinita per installare il trasformatore Hugging Face e altre librerie di cui abbiamo bisogno per mettere a punto il nostro modello. Ciò consente di utilizzare le librerie e le impostazioni di deep learning testate e ottimizzate incluse senza dover creare un'immagine da zero. Vedere il seguente codice:
5. Inizia l'allenamento utilizzando il contenitore
Eseguire il seguente comando Docker per iniziare a perfezionare il modello su tweet_eval
set di dati sul sentimento. Stiamo utilizzando gli argomenti del contenitore Docker (dimensione della memoria condivisa, memoria massima bloccata e dimensione dello stack) consigliato da Nvidia per carichi di lavoro di deep learning.
Dovresti aspettarti il seguente output. Lo script scarica prima il set di dati TweetEval, che consiste in sette attività eterogenee in Twitter, tutte inquadrate come classificazione tweet multi-classe. I compiti includono ironia, odio, offensiva, posizione, emoji, emozione e sentimento.
Lo script quindi scarica il modello di base e avvia il processo di messa a punto. Le metriche di addestramento e valutazione sono riportate alla fine di ogni epoca.
Statistiche sulle prestazioni
Con PyTorch 2.0 e l'ultima libreria di trasformatori Hugging Face 4.28.1, abbiamo osservato un aumento della velocità del 42% su una singola istanza p4d.24xlarge con 8 GPU A100 da 40 GB. I miglioramenti delle prestazioni derivano da una combinazione di torch.compile, il tipo di dati BF16 e l'ottimizzatore AdamW fuso. Il codice seguente è il risultato finale di due esecuzioni di training con e senza nuove funzionalità:
6. Testare il modello addestrato localmente prima di prepararsi per l'inferenza di SageMaker
Puoi trovare i seguenti file sotto $ml_working_dir/saved_model/
dopo l'allenamento:
Assicuriamoci di poter eseguire l'inferenza in locale prima di prepararci per l'inferenza di SageMaker. Possiamo caricare il modello salvato ed eseguire l'inferenza in locale utilizzando il file test_trained_model.py
sceneggiatura:
Dovresti aspettarti il seguente output con l'input "I casi Covid stanno aumentando velocemente!":
7. Preparare il tarball del modello per l'inferenza di SageMaker
Sotto la directory in cui si trova il modello, crea una nuova directory chiamata code
:
Nella nuova directory, crea il file inference.py
e aggiungervi quanto segue:
Alla fine, dovresti avere la seguente struttura di cartelle:
Il modello è pronto per essere impacchettato e caricato su Amazon S3 per l'utilizzo con l'inferenza di SageMaker:
8. Distribuisci il modello su un'istanza SageMaker AWS Graviton
Le nuove generazioni di CPU offrono un significativo miglioramento delle prestazioni nell'inferenza ML grazie a istruzioni incorporate specializzate. In questo caso d'uso, utilizziamo l'infrastruttura di hosting completamente gestita SageMaker con istanze C3g basate su AWS Graviton7. AWS ha anche misurato un risparmio sui costi fino al 50% per l'inferenza PyTorch con istanze EC3 C2g basate su AWS Graviton7 su Torch Hub ResNet50 e più modelli Hugging Face rispetto a istanze EC2 comparabili.
Per distribuire i modelli alle istanze AWS Graviton, utilizziamo DLC AWS che forniscono supporto per PyTorch 2.0 e TorchServe 0.8.0, oppure puoi porta i tuoi contenitori compatibili con l'architettura ARMv8.2.
Usiamo il modello che abbiamo addestrato in precedenza: s3://<your-s3-bucket>/twitter-roberta-base-sentiment-latest.tar.gz
. Se non hai mai usato SageMaker prima, rivedi Inizia con Amazon SageMaker.
Per iniziare, assicurati che il pacchetto SageMaker sia aggiornato:
Poiché questo è un esempio, crea un file chiamato start_endpoint.py
e aggiungi il seguente codice. Questo sarà lo script Python per avviare un endpoint di inferenza SageMaker con la modalità:
Stiamo usando ml.c7g.4xlarge per l'istanza e stiamo recuperando PT 2.0 con un ambito immagine inference_graviton
. Questa è la nostra istanza AWS Graviton3.
Successivamente, creiamo il file che esegue la previsione. Li facciamo come script separati in modo da poter eseguire le previsioni tutte le volte che vogliamo. Creare predict.py
con il seguente codice:
Con gli script generati, ora possiamo avviare un endpoint, fare previsioni sull'endpoint e ripulire quando abbiamo finito:
9. Pulire
Infine, vogliamo ripulire da questo esempio. Crea cleanup.py e aggiungi il seguente codice:
Conclusione
Le DLAMI e i DLC di AWS sono diventati lo standard di riferimento per l'esecuzione di carichi di lavoro di deep learning su un'ampia selezione di servizi di calcolo e ML su AWS. Oltre a utilizzare DLC specifici del framework sui servizi AWS ML, puoi anche utilizzare un singolo framework su Amazon EC2, che elimina il lavoro pesante necessario agli sviluppatori per creare e mantenere applicazioni di deep learning. Fare riferimento a Note di rilascio per DLAMI ed Immagini disponibili dei contenitori di apprendimento profondo per iniziare.
Questo post ha mostrato una delle tante possibilità per addestrare e servire il tuo prossimo modello su AWS e ha discusso diversi formati che puoi adottare per raggiungere i tuoi obiettivi aziendali. Prova questo esempio o utilizza i nostri altri servizi AWS ML per espandere la produttività dei dati per la tua azienda. Abbiamo incluso un semplice problema di analisi del sentiment in modo che i clienti nuovi al ML possano capire quanto sia semplice iniziare con PyTorch 2.0 su AWS. Tratteremo casi d'uso, modelli e tecnologie AWS più avanzati nei prossimi post del blog.
Circa gli autori
Kanwaljit Khurmi è Principal Solutions Architect presso Amazon Web Services. Lavora con i clienti AWS per fornire guida e assistenza tecnica aiutandoli a migliorare il valore delle loro soluzioni quando utilizzano AWS. Kanwaljit è specializzato nell'aiutare i clienti con applicazioni containerizzate e di machine learning.
Mike Schneider è uno sviluppatore di sistemi, con sede a Phoenix AZ. È membro dei container Deep Learning, che supportano varie immagini di container Framework, tra cui Graviton Inference. Si dedica all'efficienza e alla stabilità delle infrastrutture.
Lai Wei è Senior Software Engineer presso Amazon Web Services. Si sta concentrando sulla creazione di framework di deep learning facili da usare, ad alte prestazioni e scalabili per accelerare l'addestramento di modelli distribuiti. Al di fuori del lavoro, ama passare il tempo con la sua famiglia, fare escursioni e sciare.
- Distribuzione di contenuti basati su SEO e PR. Ricevi amplificazione oggi.
- PlatoAiStream. Intelligenza dei dati Web3. Conoscenza amplificata. Accedi qui.
- Coniare il futuro con Adryenn Ashley. Accedi qui.
- Acquista e vendi azioni in società PRE-IPO con PREIPO®. Accedi qui.
- Fonte: https://aws.amazon.com/blogs/machine-learning/part-1-build-high-performance-ml-models-using-pytorch-2-0-on-aws/
- :ha
- :È
- :non
- :Dove
- $ SU
- 1
- 10
- 100
- 11
- 12
- 13
- 14
- 15%
- 16
- 17
- 20
- 200
- 23
- 25
- 26%
- 28
- 31
- 7
- 8
- 9
- a
- accelerare
- accelerata
- accelerando
- Accetta
- accesso
- operanti in
- Action
- Adam
- aggiungere
- aggiunto
- adottare
- Avanzate
- Dopo shavasana, sedersi in silenzio; saluti;
- contro
- AI
- allineare
- Allineati
- Tutti
- consentire
- Consentire
- consente
- lungo
- già
- anche
- Amazon
- Amazon EC2
- Amazon Web Services
- AMD
- quantità
- an
- .
- analizzare
- ed
- ha annunciato
- Un altro
- in qualsiasi
- api
- Applicazioni
- applicazioni
- approccio
- circa
- architettura
- SONO
- RISERVATA
- argomento
- argomenti
- artificiale
- intelligenza artificiale
- Intelligenza artificiale (AI)
- AS
- Assistenza
- At
- disponibilità
- disponibile
- media
- AWS
- equilibratore
- base
- basato
- fondamentalmente
- BE
- perché
- diventare
- stato
- prima
- iniziare
- dietro
- Segno di riferimento
- parametri di riferimento
- Big
- miliardi
- BIN
- Blog
- Post di Blog
- stile di vita
- Parte inferiore
- Cervello
- ampio
- budget limitato.
- costruire
- Costruzione
- costruito
- incassato
- onere
- affari
- aziende
- ma
- by
- chiamata
- detto
- chiamata
- Materiale
- funzionalità
- Custodie
- casi
- CD
- il cambiamento
- cambiando
- scegliere
- Scegli
- classificazione
- cliente
- Cloud
- codice
- COM
- combinazione
- viene
- Comunicazione
- paragonabile
- rispetto
- compatibile
- completamento di una
- Calcolare
- computer
- Visione computerizzata
- informatica
- Connettiti
- Prendere in considerazione
- consiste
- consolle
- Contenitore
- Tecnologie Container
- contenuto
- creazione di contenuti
- di controllo
- Nucleo
- Costo
- risparmi
- Costi
- potuto
- copertura
- creare
- creato
- creazione
- Credenziali
- a cura
- Corrente
- Clienti
- personalizzare
- dati
- Data
- Giorni
- dedicato
- deep
- apprendimento profondo
- Predefinito
- dimostra
- Dipendente
- schierare
- schierato
- deployment
- implementazioni
- progettato
- dettagli
- sviluppato
- Costruttori
- sviluppatori
- Mercato
- diverso
- digerire
- discutere
- discusso
- distribuito
- formazione distribuita
- paesaggio differenziato
- do
- docker
- fatto
- Dont
- scaricare
- download
- autista
- driver
- guida
- dovuto
- dinamico
- ogni
- In precedenza
- alleviare
- facilmente
- facile
- effetto
- in maniera efficace
- efficienza
- in modo efficiente
- sforzo
- o
- enable
- abilitato
- crittografia
- fine
- endpoint
- ingegnere
- migliorata
- interamente
- Ambiente
- epoca
- errore
- valutare
- valutazione
- Anche
- EVER
- Ogni
- esempio
- esistente
- Espandere
- attenderti
- esperienza
- esplora
- esponenziale
- export
- estendere
- si estende
- tessuto
- Faccia
- famiglia
- più veloce
- più veloce
- Caratteristiche
- pochi
- figura
- Compila il
- File
- finale
- Trovate
- Nome
- in forma
- Flessibilità
- galleggiante
- Focus
- messa a fuoco
- seguire
- i seguenti
- Nel
- Contesto
- quadri
- da
- completamente
- ulteriormente
- generare
- generato
- ELETTRICA
- generazioni
- generativo
- AI generativa
- ottenere
- Idiota
- GitHub
- Dare
- dà
- globali
- GPU
- GPU
- Gruppo
- Crescita
- guida
- Avere
- avendo
- he
- pesante
- sollevamento pesante
- aiutare
- aiuta
- Alte prestazioni
- superiore
- massimo
- il suo
- detiene
- host
- di hosting
- Come
- Tuttavia
- HTML
- http
- HTTPS
- Hub
- centinaia
- IBRIDO
- ID
- Identità
- if
- illustra
- Immagine
- immagini
- realizzare
- implementazione
- importare
- competenze
- migliorata
- miglioramento
- miglioramenti
- miglioramento
- in
- includere
- incluso
- inclusi
- Compreso
- Aumento
- crescente
- studente indipendente
- industrie
- Infrastruttura
- ingresso
- install
- installato
- installazione
- esempio
- invece
- istruzioni
- Integra
- Intel
- Intelligence
- ai miglioramenti
- Investimenti
- IP
- ironia
- IT
- SUO
- Offerte di lavoro
- jpg
- json
- Le
- Discografica
- Lingua
- grandi
- larga scala
- superiore, se assunto singolarmente.
- Latenza
- con i più recenti
- ultima uscita
- lanciare
- Leads
- apprendimento
- a sinistra
- biblioteche
- Biblioteca
- di sollevamento
- piace
- Limitato
- linea
- linux
- Lista
- caricare
- a livello locale
- collocato
- bloccato
- ceppo
- accesso
- spento
- inferiore
- minore
- macchina
- machine learning
- mantenere
- make
- Fare
- gestire
- gestito
- molti
- matematica
- max
- Maggio..
- Soddisfare
- membro
- Memorie
- unioni
- Metadati
- metodo
- Metrica
- milione
- ML
- MLOp
- Moda
- modello
- modelli
- moduli
- mese
- Scopri di più
- in movimento
- multiplo
- Nome
- Naturale
- Elaborazione del linguaggio naturale
- necessaria
- Bisogno
- di applicazione
- esigenze
- negativo.
- Rete
- internazionale
- Neutres
- New
- Nuove funzionalità
- Nuove tecnologie
- GENERAZIONE
- nodi
- Note
- Avviso..
- adesso
- Nvidia
- Obiettivi d'Esame
- of
- offensivo
- offrire
- offerta
- Offerte
- on
- ONE
- open source
- apre
- operativa
- ottimizzazione
- ottimizzati
- Opzioni
- or
- orchestrazione
- organizzativa
- OS
- Altro
- Altri
- nostro
- su
- produzione
- al di fuori
- proprio
- pacchetto
- confezionati
- parametri
- parte
- Toppa
- patching
- performance
- autorizzazione
- permessi
- fenice
- scegliere
- raccolto
- conduttura
- piattaforma
- Platone
- Platone Data Intelligence
- PlatoneDati
- per favore
- punto
- Termini e Condizioni
- politica
- Popolare
- possibilità
- Post
- Post
- alimentato
- potente
- predire
- predizione
- Previsioni
- Preparare
- preparazione
- prerequisiti
- precedente
- Direttore
- Problema
- processi
- lavorazione
- processori
- Produzione
- della produttività
- Prodotti
- progetto
- progetti
- proprio
- comprovata
- fornire
- fornisce
- la percezione
- metti
- Python
- pytorch
- pronto
- recente
- recentemente
- ricorrenti
- ridurre
- regione
- registro
- regolarmente
- parente
- rilasciare
- affidabile
- rimanente
- Segnalati
- richiedere
- necessario
- Requisiti
- richiede
- risorsa
- risposta
- restrizioni
- colpevole
- ritorno
- recensioni
- Ruolo
- radice
- Correre
- running
- sagemaker
- Inferenza di SageMaker
- stesso
- Risparmio
- scalabile
- Scala
- scansione
- scikit-impara
- portata
- Punto
- graffiare
- script
- Sezione
- sezioni
- sicuro
- problemi di
- vedere
- Selezione
- prodotti
- invio
- anziano
- sentimento
- separato
- servire
- servizio
- Servizi
- Sessione
- set
- impostazioni
- flessibile.
- Sette
- alcuni
- SHA256
- condiviso
- dovrebbero
- vetrina
- ha mostrato
- mostrato
- Spettacoli
- significativa
- Un'espansione
- singolo
- Taglia
- Dimensioni
- So
- Software
- Software Engineer
- soluzione
- Soluzioni
- alcuni
- lo spazio
- specializzata
- specializzata
- specifico
- in particolare
- velocità
- velocità
- spendere
- Spendere
- Stabilità
- pila
- Standard
- inizia a
- iniziato
- inizio
- dichiarazione
- statistica
- step
- Passi
- conservazione
- opzioni di archiviazione
- strategie
- La struttura
- tale
- supporto
- supportato
- Supporto
- supporti
- sistema
- SISTEMI DI TRATTAMENTO
- su misura
- task
- Consulenza
- tecniche
- Tecnologie
- tensorflow
- test
- testato
- di
- che
- Il
- L'area
- loro
- Li
- poi
- Strumenti Bowman per analizzare le seguenti finiture:
- di
- cose
- questo
- anche se?
- Attraverso
- portata
- fila
- tempo
- volte
- a
- strumenti
- torcia
- Treni
- allenato
- Training
- trasformatore
- trasformatori
- trasformazione
- prova
- Tweet
- tweet
- seconda
- Digitare
- Tipi di
- tipico
- Ubuntu
- per
- capire
- imminenti
- Aggiornanento
- aggiornato
- upgrade
- caricato
- Impiego
- uso
- caso d'uso
- utilizzato
- utenti
- utilizzando
- utilità
- APPREZZIAMO
- varietà
- vario
- verificare
- versione
- visione
- volume
- vulnerabilità
- volere
- we
- sito web
- servizi web
- Settimane
- peso
- il benvenuto
- quando
- quale
- ampiamente
- volere
- con
- senza
- Lavora
- flusso di lavoro
- lavori
- scrivere
- scrittura
- X
- Tu
- Trasferimento da aeroporto a Sharm
- zefiro
- zone