Nell’era dei big data e dell’intelligenza artificiale, le aziende sono alla continua ricerca di modi per utilizzare queste tecnologie per ottenere un vantaggio competitivo. Una delle aree più calde dell’intelligenza artificiale in questo momento è l’intelligenza artificiale generativa, e per una buona ragione. L'intelligenza artificiale generativa offre soluzioni potenti che ampliano i confini di ciò che è possibile in termini di creatività e innovazione. Al centro di queste soluzioni all’avanguardia c’è un Foundation Model (FM), un modello di machine learning altamente avanzato pre-addestrato su grandi quantità di dati. Molti di questi modelli di base hanno dimostrato notevoli capacità nel comprendere e generare testo simile a quello umano, rendendoli uno strumento prezioso per una varietà di applicazioni, dalla creazione di contenuti all'automazione dell'assistenza clienti.
Tuttavia, questi modelli non sono esenti da sfide. Sono eccezionalmente grandi e richiedono grandi quantità di dati e risorse computazionali per l'addestramento. Inoltre, l’ottimizzazione del processo di formazione e la calibrazione dei parametri può essere un processo complesso e iterativo, che richiede competenze e un’attenta sperimentazione. Questi possono rappresentare ostacoli per molte organizzazioni che desiderano costruire i propri modelli di base. Per superare questa sfida, molti clienti stanno valutando la possibilità di ottimizzare i modelli di fondazione esistenti. Si tratta di una tecnica diffusa per regolare una piccola parte dei parametri del modello per applicazioni specifiche preservando al tempo stesso la conoscenza già codificata nel modello. Consente alle organizzazioni di sfruttare la potenza di questi modelli riducendo al contempo le risorse necessarie per la personalizzazione di un dominio o di un'attività specifica.
Esistono due approcci principali per la messa a punto dei modelli di base: la messa a punto tradizionale e la messa a punto efficiente in termini di parametri. Il perfezionamento tradizionale prevede l'aggiornamento di tutti i parametri del modello pre-addestrato per un'attività specifica a valle. D'altra parte, la messa a punto efficiente dei parametri include una varietà di tecniche che consentono la personalizzazione di un modello senza aggiornare tutti i parametri del modello originale. Una di queste tecniche è chiamata adattamento di basso rango (LoRA). Implica l'aggiunta di piccoli moduli specifici per attività al modello pre-addestrato e l'addestramento degli stessi mantenendo fissi il resto dei parametri, come mostrato nell'immagine seguente.
Fonte: IA generativa su AWS (O'Reilly, 2023)
LoRA ha guadagnato popolarità recentemente per diversi motivi. Offre un addestramento più rapido, requisiti di memoria ridotti e la possibilità di riutilizzare modelli preaddestrati per più attività downstream. Ancora più importante, il modello base e l'adattatore possono essere archiviati separatamente e combinati in qualsiasi momento, semplificando l'archiviazione, la distribuzione e la condivisione delle versioni ottimizzate. Tuttavia, ciò introduce una nuova sfida: come gestire correttamente questi nuovi tipi di modelli perfezionati. Dovresti combinare il modello base e l'adattatore o tenerli separati? In questo post, esaminiamo le migliori pratiche per la gestione dei modelli ottimizzati di LoRA Amazon Sage Maker per affrontare questa domanda emergente.
Lavorare con FM sul registro dei modelli SageMaker
In questo post, esaminiamo un esempio end-to-end di messa a punto del modello Llama2 Large Language Model (LLM) utilizzando il metodo QLoRA. QLoRA combina i vantaggi di un'ottimizzazione efficiente dei parametri con la quantizzazione a 4 bit/8 bit per ridurre ulteriormente le risorse necessarie per ottimizzare un FM per un'attività o un caso d'uso specifico. A questo scopo, utilizzeremo il modello Llama7 da 2 miliardi di parametri preaddestrato e lo ottimizzeremo sul set di dati databricks-dolly-15k. Gli LLM come Llama2 hanno miliardi di parametri e sono preaddestrati su enormi set di dati di testo. La messa a punto adatta un LLM a un'attività a valle utilizzando un set di dati più piccolo. Tuttavia, la messa a punto di modelli di grandi dimensioni è computazionalmente costosa. Questo è il motivo per cui utilizzeremo il metodo QLoRA per quantizzare i pesi durante la messa a punto per ridurre questo costo di calcolo.
Nei nostri esempi troverai due taccuini (llm-finetune-combined-with-registry.ipynb
ed llm-finetune-separate-with-registry.ipynb
). Ciascuno funziona in modo diverso per gestire i modelli ottimizzati di LoRA, come illustrato nel diagramma seguente:
- Per prima cosa scarichiamo il modello Llama2 pre-addestrato con 7 miliardi di parametri utilizzando i notebook SageMaker Studio. Gli LLM, come Llama2, hanno mostrato prestazioni all'avanguardia nelle attività di elaborazione del linguaggio naturale (NLP) quando ottimizzati su dati specifici del dominio.
- Successivamente, perfezioniamo Llama2 sul set di dati databricks-dolly-15k usando il metodo QLoRA. QLoRA riduce il costo computazionale della messa a punto quantizzando i pesi del modello.
- Durante la messa a punto, integriamo SageMaker Experiments Plus con l'API Transformers per registrare automaticamente parametri come gradiente, perdita, ecc.
- Quindi eseguiamo la versione del modello Llama2 ottimizzato nel registro dei modelli SageMaker utilizzando due approcci:
- Memorizzazione del modello completo
- Conservare separatamente l'adattatore e il modello base.
- Infine, ospitiamo i modelli Llama2 ottimizzati utilizzando il servizio Deep Java Library (DJL) su un endpoint in tempo reale SageMaker.
Nelle sezioni seguenti, approfondiremo ciascuno di questi passaggi, per dimostrare la flessibilità di SageMaker per diversi flussi di lavoro LLM e come queste funzionalità possono aiutare a migliorare le operazioni dei tuoi modelli.
Prerequisiti
Completa i seguenti prerequisiti per iniziare a sperimentare il codice.
- Creare un Dominio SageMaker Studio: Amazon SageMaker Studio, in particolare Studio Notebooks, viene utilizzato per avviare l'attività di perfezionamento di Llama2, quindi registrare e visualizzare i modelli all'interno Registro dei modelli SageMaker. Esperimenti di SageMaker viene utilizzato anche per visualizzare e confrontare i registri dei lavori di messa a punto di Llama2 (perdita di formazione/perdita di test/ecc.).
- Crea un bucket Amazon Simple Storage Service (S3).: È richiesto l'accesso a un bucket S3 per archiviare gli artefatti di addestramento e i pesi dei modelli. Per istruzioni, fare riferimento a Creare un secchio. Il codice di esempio utilizzato per questo post utilizzerà il bucket S3 predefinito di SageMaker, ma puoi personalizzarlo per utilizzare qualsiasi bucket S3 pertinente.
- Configura raccolte di modelli (autorizzazioni IAM): aggiorna il tuo ruolo di esecuzione SageMaker con le autorizzazioni per i gruppi di risorse come elencato in Guida per gli sviluppatori delle raccolte di registri dei modelli per implementare il raggruppamento del registro dei modelli utilizzando le raccolte di modelli.
- Accetta i Termini e condizioni per Llama2: dovrai accettare il contratto di licenza con l'utente finale e la politica di utilizzo accettabile per utilizzare il modello di base Llama2.
Gli esempi sono disponibili in Repository GitHub. I file del notebook vengono testati utilizzando i notebook Studio in esecuzione sul kernel PyTorch 2.0.0 Python 3.10 ottimizzato per GPU e sul tipo di istanza ml.g4dn.xlarge.
Esperimenti più integrazione di callback
Esperimenti Amazon SageMaker ti consente di organizzare, monitorare, confrontare e valutare esperimenti di machine learning (ML) e versioni di modelli da qualsiasi ambiente di sviluppo integrato (IDE), inclusi Jupyter Notebook locali, utilizzando SageMaker Python SDK o boto3. Fornisce la flessibilità di registrare le metriche, i parametri, i file, gli artefatti del modello, tracciare grafici dalle diverse metriche, acquisire vari metadati, effettuare ricerche al loro interno e supportare la riproducibilità del modello. I data scientist possono confrontare rapidamente le prestazioni e gli iperparametri per la valutazione del modello attraverso grafici e tabelle visive. Possono anche utilizzare SageMaker Experiments per scaricare i grafici creati e condividere la valutazione del modello con le parti interessate.
La formazione dei LLM può essere un processo lento, costoso e iterativo. È molto importante che un utente tenga traccia della sperimentazione LLM su larga scala per evitare un'esperienza di ottimizzazione del modello incoerente. API HuggingFace Transformer consentire agli utenti di tenere traccia delle metriche durante le attività di formazione callback. I callback sono pezzi di codice di "sola lettura" che possono personalizzare il comportamento del ciclo di addestramento nel PyTorch Trainer che può ispezionare lo stato del ciclo di addestramento per segnalare i progressi, accedere a TensorBoard o SageMaker Experiments Plus tramite logica personalizzata (che è inclusa come parte di questa base di codice).
Puoi importare il codice di callback di SageMaker Experiments incluso nel repository di codici di questo post come mostrato nel seguente blocco di codice:
Questa richiamata registrerà automaticamente le seguenti informazioni in SageMaker Experiments come parte dell'esecuzione del training:
- Parametri di allenamento e iperparametri
- Perdita di formazione e validazione del modello in fase, epoca e finale
- Elementi di input e output del modello (set di dati di addestramento, set di dati di convalida, posizione di output del modello, debugger di addestramento e altro)
Il grafico seguente mostra esempi di grafici che è possibile visualizzare utilizzando tali informazioni.
Ciò consente di confrontare facilmente più esecuzioni utilizzando la funzione Analizza di SageMaker Experiments. Puoi selezionare le esecuzioni degli esperimenti che desideri confrontare e queste verranno compilate automaticamente nei grafici di confronto.
Registra modelli ottimizzati nelle raccolte del registro dei modelli
Raccolte di registri di modelli è una caratteristica di Registro dei modelli SageMaker che consente di raggruppare modelli registrati correlati tra loro e organizzarli in gerarchie per migliorare l'individuabilità del modello su larga scala. Utilizzeremo le raccolte del registro dei modelli per tenere traccia del modello base e delle varianti ottimizzate.
Metodo di copia del modello completo
Il primo metodo combina il modello base e l'adattatore LoRA e salva l'intero modello ottimizzato. Il codice seguente illustra il processo di unione dei modelli e salva il modello combinato utilizzando model.save_pretrained()
.
La combinazione dell'adattatore LoRA e del modello base in un unico artefatto del modello dopo la messa a punto presenta vantaggi e svantaggi. Il modello combinato è autonomo e può essere gestito e distribuito in modo indipendente senza bisogno del modello base originale. Il modello può essere monitorato come entità a sé stante con un nome di versione che riflette il modello di base e i dati di perfezionamento. Possiamo adottare una nomenclatura utilizzando il base_model_name
+ messo a punto dataset_name
organizzare i gruppi modello. Facoltativamente, le raccolte di modelli potrebbero associare i modelli originali e ottimizzati, ma ciò potrebbe non essere necessario poiché il modello combinato è indipendente. Il seguente frammento di codice mostra come registrare il modello ottimizzato.
È possibile utilizzare lo stimatore della formazione per registrare il modello nel Registro dei modelli.
Dal registro dei modelli è possibile recuperare il pacchetto del modello e distribuirlo direttamente.
Tuttavia, ci sono degli svantaggi in questo approccio. La combinazione dei modelli porta a inefficienza e ridondanza di archiviazione poiché il modello base viene duplicato in ogni versione ottimizzata. L'aumento delle dimensioni dei modelli e del numero di modelli ottimizzati aumenta in modo esponenziale le esigenze di archiviazione. Prendendo come esempio il modello llama2 7b, il modello base è di circa 13 GB e il modello ottimizzato è di 13.6 GB. Il 96% del modello deve essere duplicato dopo ogni messa a punto. Inoltre, anche la distribuzione e la condivisione di file di modelli di grandi dimensioni diventa più difficile e presenta sfide operative poiché i costi di trasferimento e gestione dei file aumentano con l’aumento delle dimensioni del modello e dei lavori di messa a punto.
Adattatore e metodo base separati
Il secondo metodo si concentra sulla separazione dei pesi base e dei pesi dell'adattatore salvandoli come componenti del modello separati e caricandoli in sequenza in fase di esecuzione.
Il salvataggio dei pesi della base e dell'adattatore presenta vantaggi e svantaggi, simili al metodo Copia modello completo. Un vantaggio è che può risparmiare spazio di archiviazione. I pesi base, che rappresentano il componente più grande di un modello ottimizzato, vengono salvati solo una volta e possono essere riutilizzati con altri pesi adattatori ottimizzati per attività diverse. Ad esempio, il peso base di Llama2-7B è di circa 13 GB, ma ogni attività di regolazione fine richiede solo di memorizzare circa 0.6 GB di peso dell'adattatore, con un risparmio di spazio del 95%. Un altro vantaggio è che i pesi base possono essere gestiti separatamente dai pesi dell'adattatore utilizzando un registro dei modelli basato solo sui pesi base. Ciò può essere utile per i domini SageMaker che funzionano solo in modalità VPC senza un gateway Internet, poiché è possibile accedere ai pesi di base senza dover passare attraverso Internet.
Crea un gruppo di pacchetti modello per i pesi base
Crea un gruppo di pacchetti modello per i pesi QLoRA
Il codice seguente mostra come contrassegnare i pesi QLoRA con il tipo di set di dati/attività e registrare i pesi delta ottimizzati in un registro del modello separato e tenere traccia dei pesi delta separatamente.
Il frammento seguente mostra una vista dal registro dei modelli in cui i modelli sono suddivisi in pesi di base e ottimizzati.
La gestione di modelli, set di dati e attività per LLM iper-personalizzati può diventare rapidamente travolgente. Raccolte di registri dei modelli SageMaker può aiutarti a raggruppare insieme modelli correlati e a organizzarli in una gerarchia per migliorare l'individuabilità del modello. Ciò semplifica il monitoraggio delle relazioni tra pesi di base, pesi dell'adattatore e set di dati delle attività di regolazione fine. È inoltre possibile creare relazioni e collegamenti complessi tra i modelli.
Crea una nuova collezione e aggiungi i pesi del modello base a questa collezione
Collega tutti i pesi Delta dell'adattatore LoRA ottimizzati a questa raccolta per attività e/o set di dati
Ciò si tradurrà in una gerarchia di raccolte collegate per modello/tipo di attività e set di dati utilizzato per mettere a punto il modello di base.
Questo metodo di separazione dei modelli base e adattatore presenta alcuni inconvenienti. Uno svantaggio è la complessità nella distribuzione del modello. Poiché sono presenti due elementi del modello separati, sono necessari passaggi aggiuntivi per riassemblare il modello invece di distribuirlo direttamente dal Registro modelli. Nel seguente esempio di codice, scarica e reimballa prima la versione più recente del modello base.
Quindi scarica e reimballa gli ultimi pesi dell'adattatore LoRA ottimizzati.
Poiché utilizzerai il servizio DJL con velocità profonda per ospitare il modello, la directory di inferenza dovrebbe essere simile alla seguente.
Infine, crea un pacchetto del codice di inferenza personalizzato, del modello di base e dell'adattatore LoRA in un unico file .tar.gz per la distribuzione.
ripulire
Pulisci le tue risorse seguendo le istruzioni nella sezione di pulizia del notebook. Fare riferimento a Prezzi di Amazon SageMaker per i dettagli sul costo delle istanze di inferenza.
Conclusione
Questo post ti ha illustrato le best practice per la gestione dei modelli ottimizzati LoRA su Amazon SageMaker. Abbiamo trattato due metodi principali: combinare i pesi della base e dell'adattatore in un modello autonomo e separare i pesi della base e dell'adattatore. Entrambi gli approcci presentano dei compromessi, ma la separazione dei pesi aiuta a ottimizzare l'archiviazione e consente tecniche avanzate di gestione dei modelli come le raccolte di registri dei modelli SageMaker. Ciò consente di creare gerarchie e relazioni tra modelli per migliorare l'organizzazione e la rilevabilità. Ti invitiamo a provare il codice di esempio Repository GitHub per sperimentare tu stesso questi metodi. Man mano che l'intelligenza artificiale generativa progredisce rapidamente, seguire le migliori pratiche di gestione dei modelli ti aiuterà a tenere traccia degli esperimenti, trovare il modello giusto per la tua attività e gestire LLM specializzati in modo efficiente su larga scala.
Riferimenti
Circa gli autori
Giacomo Wu è un Senior AI/ML Specialist Solution Architect presso AWS. aiutare i clienti a progettare e realizzare soluzioni AI/ML. Il lavoro di James copre un'ampia gamma di casi d'uso di ML, con un interesse primario per la visione artificiale, il deep learning e la scalabilità del ML in tutta l'azienda. Prima di entrare in AWS, James è stato architetto, sviluppatore e leader tecnologico per oltre 10 anni, di cui 6 in ingegneria e 4 anni nei settori del marketing e della pubblicità.
Pranav Murthy è un AI/ML Specialist Solutions Architect presso AWS. Il suo obiettivo è aiutare i clienti a creare, addestrare, distribuire e migrare carichi di lavoro di machine learning (ML) su SageMaker. In precedenza ha lavorato nel settore dei semiconduttori sviluppando modelli di visione artificiale (CV) di grandi dimensioni e di elaborazione del linguaggio naturale (NLP) per migliorare i processi dei semiconduttori. Nel tempo libero gli piace giocare a scacchi e viaggiare.
Mecit Gungor è un Solution Architect specializzato in AI/ML presso AWS che aiuta i clienti a progettare e creare soluzioni AI/ML su larga scala. Copre un'ampia gamma di casi d'uso di AI/ML per i clienti delle telecomunicazioni e attualmente si concentra su AI generativa, LLM e ottimizzazione della formazione e dell'inferenza. Spesso lo si può trovare mentre fa escursioni nella natura selvaggia o gioca a giochi da tavolo con i suoi amici nel tempo libero.
Shelbee Eigenbrode è Principal AI and Machine Learning Specialist Solutions Architect presso Amazon Web Services (AWS). Si occupa di tecnologia da 24 anni coprendo diversi settori, tecnologie e ruoli. Attualmente si sta concentrando sulla combinazione del suo background DevOps e ML nel dominio di MLOps per aiutare i clienti a fornire e gestire carichi di lavoro ML su larga scala. Con oltre 35 brevetti concessi in vari domini tecnologici, ha una passione per l'innovazione continua e l'utilizzo dei dati per ottenere risultati aziendali. Shelbee è un co-creatore e istruttore della specializzazione Practical Data Science su Coursera. È anche co-direttore di Women In Big Data (WiBD), capitolo di Denver. Nel tempo libero le piace passare il tempo con la sua famiglia, gli amici e i cani iperattivi.
- Distribuzione di contenuti basati su SEO e PR. Ricevi amplificazione oggi.
- PlatoData.Network Generativo verticale Ai. Potenzia te stesso. Accedi qui.
- PlatoAiStream. Intelligenza Web3. Conoscenza amplificata. Accedi qui.
- PlatoneESG. Carbonio, Tecnologia pulita, Energia, Ambiente, Solare, Gestione dei rifiuti. Accedi qui.
- Platone Salute. Intelligence sulle biotecnologie e sulle sperimentazioni cliniche. Accedi qui.
- Fonte: https://aws.amazon.com/blogs/machine-learning/model-management-for-lora-fine-tuned-models-using-llama2-and-amazon-sagemaker/
- :ha
- :È
- :non
- :Dove
- $ SU
- 10
- 100
- 11
- 12
- 13
- 15%
- 16
- 20
- 2023
- 23
- 24
- 25
- 28
- 31
- 35%
- 7
- 8
- 95%
- a
- capacità
- WRI
- Accetta
- accettabile
- accesso
- accessibile
- operanti in
- adattamento
- adatta
- aggiungere
- l'aggiunta di
- aggiuntivo
- Inoltre
- indirizzo
- adottare
- Avanzate
- Vantaggio
- vantaggi
- Pubblicità
- Dopo shavasana, sedersi in silenzio; saluti;
- Accordo
- AI
- AI giusto
- AI / ML
- Tutti
- consentire
- consente
- già
- anche
- Amazon
- Amazon Sage Maker
- Amazon Sage Maker Studio
- Servizio di archiviazione semplice Amazon (S3)
- Amazon Web Services
- Amazon Web Services (AWS)
- importi
- an
- analizzare
- ed
- Un altro
- in qualsiasi
- api
- applicazioni
- approccio
- approcci
- approvato
- circa
- SONO
- aree
- AS
- Associate
- At
- automaticamente
- Automazione
- disponibile
- AWS
- precedente
- sfondo
- barriere
- base
- BE
- perché
- diventare
- diventa
- stato
- comportamento
- vantaggi
- MIGLIORE
- best practice
- fra
- Big
- Big Data
- Miliardo
- miliardi
- Bloccare
- tavola
- Giochi da tavolo
- entrambi
- confini
- costruire
- affari
- ma
- by
- callback
- detto
- Materiale
- capacità
- catturare
- attento
- Custodie
- casi
- Challenge
- sfide
- Capitolo
- Grafici
- Scacchi
- classe
- pulire campo
- codice
- codebase
- collezione
- collezioni
- combinare
- combinato
- combina
- combinando
- Aziende
- confrontare
- confronto
- competitivo
- complesso
- complessità
- componente
- componenti
- calcolo
- computazionale
- computer
- Visione computerizzata
- condizioni
- considerando
- contenuto
- creazione di contenuti
- continuamente
- continuo
- Nucleo
- Costo
- potuto
- coperto
- Copertine
- creare
- creato
- creazione
- la creatività
- Attualmente
- costume
- cliente
- Assistenza clienti
- Clienti
- personalizzazione
- personalizzare
- bordo tagliente
- dati
- scienza dei dati
- dataset
- deep
- apprendimento profondo
- più profondo
- Predefinito
- del
- consegnare
- Delta
- dimostrare
- Denver
- schierare
- schierato
- distribuzione
- deployment
- Design
- dettagli
- Costruttori
- in via di sviluppo
- Mercato
- diverso
- difficile
- direttamente
- Dsiplay
- distribuire
- distribuzione
- immersione
- dominio
- domini
- scaricare
- inconvenienti
- guidare
- durante
- ogni
- più facile
- facilmente
- bordo
- efficiente
- in modo efficiente
- altro
- emergenti del mondo
- Abilita
- incoraggiare
- da un capo all'altro
- endpoint
- Ingegneria
- Impresa
- entità
- Ambiente
- epoca
- epoca
- eccetera
- valutare
- valutazione
- esempio
- Esempi
- eccezionalmente
- esecuzione
- esistente
- costoso
- esperienza
- esperimento
- esperimenti
- competenza
- in modo esponenziale
- Faccia
- Fallimento
- famiglia
- più veloce
- caratteristica
- Caratteristiche
- Compila il
- File
- Trovate
- sottile
- Nome
- fisso
- Flessibilità
- si concentra
- messa a fuoco
- i seguenti
- Nel
- essere trovato
- Fondazione
- Gratis
- amici
- da
- pieno
- function
- ulteriormente
- futuro
- Guadagno
- guadagnato
- Giochi
- porta
- la generazione di
- generativo
- AI generativa
- Go
- andando
- buono
- GPU
- concesso
- grafico
- grafici
- Gruppo
- Gruppo
- cura
- maniglia
- Avere
- avendo
- he
- Aiuto
- aiutare
- aiuta
- suo
- gerarchia
- vivamente
- il suo
- host
- più caldo
- Come
- Tutorial
- Tuttavia
- HTML
- HTTPS
- abbracciare il viso
- illustra
- Immagine
- realizzare
- implementazione
- importare
- importante
- importante
- importazioni
- competenze
- in
- incluso
- inclusi
- Compreso
- Aumento
- Aumenta
- crescente
- studente indipendente
- indipendentemente
- industrie
- industria
- inefficienza
- si gonfia
- informazioni
- Innovazione
- ingresso
- esempio
- invece
- istruzioni
- integrare
- integrato
- interesse
- Internet
- ai miglioramenti
- Introduce
- IT
- SUO
- Giacomo
- Java
- Lavoro
- Offerte di lavoro
- accoppiamento
- jpg
- mantenere
- conservazione
- Le
- calcio
- conoscenze
- Lingua
- grandi
- maggiore
- con i più recenti
- leader
- Leads
- apprendimento
- Consente di
- Livello
- Biblioteca
- Licenza
- si trova
- piace
- piace
- LINK
- connesso
- elencati
- LLM
- caricare
- Caricamento in corso
- locale
- località
- ceppo
- registrazione
- logica
- Guarda
- una
- cerca
- spento
- macchina
- machine learning
- Principale
- FA
- Fare
- gestire
- gestito
- gestione
- gestione
- molti
- Marketing
- Marketing e pubblicità
- massiccio
- Maggio..
- Memorie
- Unire
- fusione
- Metadati
- metodo
- metodi
- Metrica
- migrare
- ML
- MLOp
- Moda
- modello
- modelli
- moduli
- Scopri di più
- multiplo
- Nome
- Naturale
- Elaborazione del linguaggio naturale
- necessaria
- Bisogno
- che necessitano di
- esigenze
- New
- nlp
- taccuino
- adesso
- numero
- of
- MENO
- Offerte
- di frequente
- on
- una volta
- ONE
- esclusivamente
- operativa
- Operazioni
- ottimizzazione
- OTTIMIZZA
- ottimizzati
- ottimizzazione
- or
- organizzazione
- organizzazioni
- i
- Altro
- nostro
- risultati
- produzione
- ancora
- Superare
- travolgente
- proprio
- pacchetto
- parametro
- parametri
- parte
- passione
- Brevetti
- sentiero
- per cento
- performance
- permessi
- pezzi
- Platone
- Platone Data Intelligence
- PlatoneDati
- gioco
- più
- politica
- Popolare
- popolarità
- porzione
- possibile
- Post
- energia
- potente
- Pratico
- pratiche
- prerequisiti
- presents
- preservare
- prevenire
- in precedenza
- primario
- Direttore
- Precedente
- processi
- i processi
- lavorazione
- Progressi
- propriamente
- proprietà
- fornisce
- Spingi
- Python
- pytorch
- domanda
- rapidamente
- gamma
- rapidamente
- tempo reale
- ragione
- motivi
- recentemente
- ridurre
- Ridotto
- riduce
- riducendo
- riferimento
- riflettendo
- registro
- registrato
- registro
- relazionato
- Relazioni
- pertinente
- notevole
- Reportistica
- deposito
- richiedere
- necessario
- Requisiti
- Risorse
- REST
- colpevole
- riutilizzare
- destra
- Ruolo
- ruoli
- Correre
- running
- corre
- runtime
- sagemaker
- Risparmi
- salvato
- risparmio
- Risparmio
- Scala
- scala
- Scienze
- scienziati
- sdk
- Cerca
- Secondo
- Sezione
- sezioni
- cerca
- semiconduttore
- anziano
- separato
- separazione
- servizio
- Servizi
- servizio
- alcuni
- Condividi
- compartecipazione
- lei
- dovrebbero
- mostrato
- Spettacoli
- simile
- Un'espansione
- da
- singolo
- Taglia
- rallentare
- piccole
- inferiore
- frammento
- soluzione
- Soluzioni
- alcuni
- Fonte
- lo spazio
- tensione
- specialista
- specializzata
- specifico
- in particolare
- spendere
- dividere
- stakeholder
- inizia a
- Regione / Stato
- state-of-the-art
- Stato dei servizi
- step
- Passi
- Ancora
- conservazione
- Tornare al suo account
- memorizzati
- studio
- tale
- supporto
- TAG
- presa
- Task
- task
- per l'esame
- tecniche
- Tecnologie
- Tecnologia
- telecomunicazione
- condizioni
- testato
- testo
- che
- Il
- loro
- Li
- poi
- Là.
- Strumenti Bowman per analizzare le seguenti finiture:
- di
- questo
- Attraverso
- tempo
- a
- insieme
- torcia
- pista
- tradizionale
- Treni
- Training
- trasferimento
- trasformatore
- trasformatori
- Di viaggio
- vero
- prova
- sintonizzare
- sintonizzato
- sintonia
- seconda
- Digitare
- Tipi di
- per
- e una comprensione reciproca
- Aggiornanento
- aggiornamento
- caricato
- URL
- uso
- caso d'uso
- utilizzato
- Utente
- utenti
- utilizzando
- convalida
- Prezioso
- APPREZZIAMO
- varietà
- vario
- Fisso
- versione
- versioni
- molto
- via
- Visualizza
- visione
- visivo
- camminare
- camminava
- volere
- Prima
- Modo..
- modi
- we
- sito web
- servizi web
- quando
- quale
- while
- perché
- largo
- Vasta gamma
- volere
- con
- entro
- senza
- Donna
- Lavora
- lavorato
- flussi di lavoro
- lavori
- anni
- Tu
- Trasferimento da aeroporto a Sharm
- te stesso
- zefiro