Oggi siamo lieti di annunciare che ora puoi eseguire trasformazioni batch con JumpStart di Amazon SageMaker modelli di linguaggio di grandi dimensioni (LLM) per la generazione di testo2testo. Le trasformazioni batch sono utili in situazioni in cui non è necessario che le risposte siano in tempo reale e pertanto è possibile eseguire l'inferenza in batch per set di dati di grandi dimensioni in blocco. Per la trasformazione batch, viene eseguito un processo batch che accetta l'input batch come un set di dati e un modello preaddestrato e genera previsioni per ogni punto dati nel set di dati. La trasformazione in batch è economica perché, a differenza degli endpoint ospitati in tempo reale che dispongono di hardware persistente, i cluster di trasformazione in batch vengono eliminati al termine del processo e pertanto l'hardware viene utilizzato solo per la durata del processo in batch.
In alcuni casi d'uso, le richieste di inferenza in tempo reale possono essere raggruppate in piccoli batch per l'elaborazione in batch per creare risposte in tempo reale o quasi in tempo reale. Ad esempio, se è necessario elaborare un flusso continuo di dati con bassa latenza e velocità effettiva elevata, richiamare separatamente un endpoint in tempo reale per ogni richiesta richiederebbe più risorse e potrebbe richiedere più tempo per elaborare tutte le richieste poiché l'elaborazione viene eseguita in modo seriale . Un approccio migliore sarebbe raggruppare alcune delle richieste e chiamare l'endpoint in tempo reale in modalità di inferenza batch, che elabora le richieste in un passaggio in avanti del modello e restituisce la risposta in blocco per la richiesta in tempo reale o quasi in tempo reale . La latenza della risposta dipenderà dal numero di richieste raggruppate e dalle dimensioni della memoria dell'istanza, pertanto è possibile ottimizzare le dimensioni del batch in base ai requisiti aziendali per latenza e velocità effettiva. Lo chiamiamo inferenza batch in tempo reale perché combina il concetto di batch pur fornendo risposte in tempo reale. Con l'inferenza batch in tempo reale, puoi raggiungere un equilibrio tra bassa latenza e throughput elevato, consentendoti di elaborare grandi volumi di dati in modo tempestivo ed efficiente.
La trasformazione batch Jumpstart per i modelli di generazione Text2Text consente di passare gli iperparametri batch attraverso variabili di ambiente che aumentano ulteriormente la velocità effettiva e riducono al minimo la latenza.
JumpStart fornisce modelli open source preaddestrati per un'ampia gamma di tipi di problemi per aiutarti a iniziare con il machine learning (ML). Puoi addestrare e ottimizzare questi modelli in modo incrementale prima della distribuzione. JumpStart fornisce anche modelli di soluzioni che configurano l'infrastruttura per casi d'uso comuni e notebook di esempio eseguibili per ML con Amazon Sage Maker. Puoi accedere ai modelli pre-addestrati, ai modelli di soluzione e agli esempi tramite la pagina di destinazione JumpStart in Amazon Sage Maker Studio. Puoi anche accedere ai modelli JumpStart utilizzando SageMaker Python SDK.
In questo post, dimostriamo come utilizzare lo stato dell'arte pre-addestrato text2text Modelli FLAN T5 da Hugging Face per la trasformazione batch e l'inferenza batch in tempo reale.
Panoramica della soluzione
Il notebook che mostra la trasformazione batch di modelli Text2Text FLAN T5 pre-addestrati da Abbracciare il viso disponibile di seguito Repository GitHub. Questo taccuino utilizza i dati di Hugging Face cnn_dailymail set di dati per un'attività di riepilogo del testo utilizzando SageMaker SDK.
Di seguito sono riportati i passaggi chiave per l'implementazione della trasformazione batch e dell'inferenza batch in tempo reale:
- Impostare i prerequisiti.
- Seleziona un modello preaddestrato.
- Recupera artefatti per il modello.
- Specifica gli iperparametri del processo di trasformazione batch.
- Preparare i dati per la trasformazione batch.
- Eseguire il processo di trasformazione batch.
- Valutare il riepilogo utilizzando a ROUGE (Recall-Oriented Understudy for Gisting Evaluation).
- Eseguire l'inferenza batch in tempo reale.
Prerequisiti di configurazione
Prima di eseguire il notebook, è necessario completare alcuni passaggi di configurazione iniziale. Impostiamo il ruolo di esecuzione di SageMaker in modo che disponga delle autorizzazioni per eseguire i servizi AWS per tuo conto:
Seleziona un modello preaddestrato
Usiamo il modello huggingface-text2text-flan-t5-large come modello predefinito. Facoltativamente, puoi recuperare l'elenco dei modelli Text2Text disponibili su JumpStart e scegliere il tuo modello preferito. Questo metodo fornisce un modo semplice per selezionare diversi ID modello utilizzando lo stesso notebook. A scopo dimostrativo, utilizziamo il modello huggingface-text2text-flan-t5-large:
Recupera artefatti per il modello
Con SageMaker, possiamo eseguire l'inferenza sul modello pre-addestrato, anche senza ottimizzarlo prima su un nuovo set di dati. Iniziamo recuperando il file deploy_image_uri
, deploy_source_uri
e model_uri
per il modello pre-addestrato:
Specifica gli iperparametri del processo di trasformazione batch
È possibile passare qualsiasi sottoinsieme di iperparametri come variabili di ambiente al processo di trasformazione batch. Puoi anche passare questi iperparametri in un payload JSON. Tuttavia, se imposti variabili di ambiente per iperparametri come mostrato nel codice seguente, gli iperparametri avanzati dei singoli esempi nel payload delle righe JSON non verranno utilizzati. Se desideri utilizzare gli iperparametri dal payload, potresti voler impostare l'estensione hyper_params_dict
parametro come null invece.
Preparare i dati per la trasformazione batch
Ora siamo pronti per caricare il file cnn_dailymail set di dati da Hugging Face:
Esaminiamo ogni immissione di dati e creiamo i dati di input nel formato richiesto. Creiamo un articles.jsonl
file come file di dati di test contenente articoli che devono essere riepilogati come payload di input. Mentre creiamo questo file, aggiungiamo il prompt "Briefly summarize this text:"
a ciascuna riga di input del test. Se desideri avere iperparametri diversi per ogni input di test, puoi aggiungere tali iperparametri come parte della creazione del set di dati.
Noi creiamo highlights.jsonl
come file di verità di base contenente i punti salienti di ciascun articolo memorizzato nel file di test articles.jsonl
. Archiviamo entrambi i file di test in un file Servizio di archiviazione semplice Amazon (Amazon S3) secchio. Vedere il seguente codice:
Eseguire il processo di trasformazione batch
Quando avvii un processo di trasformazione in batch, SageMaker avvia le risorse di calcolo necessarie per elaborare i dati, comprese le istanze CPU o GPU a seconda del tipo di istanza selezionato. Durante il processo di trasformazione in batch, SageMaker fornisce e gestisce automaticamente le risorse di calcolo necessarie per elaborare i dati, incluse le istanze, l'archiviazione e le risorse di rete. Quando il processo di trasformazione in batch è completo, le risorse di calcolo vengono automaticamente ripulite da SageMaker. Ciò significa che le istanze e lo storage utilizzati durante il lavoro vengono arrestati e rimossi, liberando risorse e riducendo al minimo i costi. Vedere il seguente codice:
Di seguito è riportato un record di esempio da articles.jsonl
file di prova. Tieni presente che il record in questo file ha un ID che corrisponde a predict.jsonl
record di file che mostra un record di riepilogo come output del modello Hugging Face Text2Text. Allo stesso modo, anche il Ground Truth File ha un ID corrispondente per il record di dati. L'ID corrispondente nel file di test, nel file di verità fondamentale e nel file di output consente di collegare i record di input con i record di output per una facile interpretazione dei risultati.
Di seguito è riportato il record di input di esempio fornito per il riepilogo:
Di seguito è riportato l'output previsto con il riepilogo:
Quanto segue è il riepilogo della verità fondamentale ai fini della valutazione del modello:
Successivamente, utilizziamo la verità fondamentale e gli output previsti per la valutazione del modello.
Valuta il modello utilizzando un punteggio ROUGE¶
ROUGE, o Recall-Oriented Understudy for Gisting Evaluation, è un insieme di metriche e un pacchetto software utilizzato per valutare il riepilogo automatico e la traduzione automatica nell'elaborazione del linguaggio naturale. Le metriche confrontano un riepilogo o una traduzione prodotti automaticamente con un riepilogo o una traduzione di riferimento (prodotto dall'uomo) o un insieme di riferimenti.
Nel codice seguente, combiniamo i riepiloghi previsti e originali unendoli sulla chiave comune id
e usa questo per calcolare il punteggio ROUGE:
Eseguire l'inferenza batch in tempo reale
Successivamente, ti mostriamo come eseguire l'inferenza batch in tempo reale sull'endpoint fornendo gli input come elenco. Utilizziamo lo stesso ID modello e set di dati di prima, tranne per il fatto che prendiamo alcuni record dal set di dati di test e li usiamo per richiamare un endpoint in tempo reale.
Il codice seguente mostra come creare e distribuire un endpoint in tempo reale per l'inferenza batch in tempo reale:
Successivamente, prepariamo il nostro payload di input. Per questo, utilizziamo i dati che abbiamo preparato in precedenza ed estraiamo i primi 10 input di test e aggiungiamo gli input di testo con gli iperparametri che vogliamo utilizzare. Forniamo questo payload in tempo reale invoke_endpoint
. Il payload della risposta viene quindi restituito come un elenco di risposte. Vedere il seguente codice:
ripulire
Dopo aver testato l'endpoint, assicurati di eliminare l'endpoint di inferenza SageMaker ed eliminare il modello per evitare di incorrere in addebiti.
Conclusione
In questo notebook, abbiamo eseguito una trasformazione batch per mostrare il modello Hugging Face Text2Text Generator per le attività di riepilogo. La trasformazione in batch è vantaggiosa per ottenere inferenze da set di dati di grandi dimensioni senza richiedere un endpoint persistente. Abbiamo collegato i record di input con le inferenze per facilitare l'interpretazione dei risultati. Abbiamo utilizzato il punteggio ROUGE per confrontare il riepilogo dei dati del test con il riepilogo generato dal modello.
Inoltre, abbiamo dimostrato l'inferenza batch in tempo reale, in cui è possibile inviare un piccolo batch di dati a un endpoint in tempo reale per raggiungere un equilibrio tra latenza e velocità effettiva per scenari come lo streaming di dati di input. L'inferenza batch in tempo reale aiuta ad aumentare il throughput per le richieste in tempo reale.
Prova oggi la trasformazione in batch con i modelli di generazione Text2Text in SageMaker e facci sapere il tuo feedback!
Circa gli autori
Hemant Singh è un Machine Learning Engineer con esperienza in Amazon SageMaker JumpStart e negli algoritmi integrati di Amazon SageMaker. Ha ottenuto i suoi master presso Courant Institute of Mathematical Sciences e B.Tech presso IIT Delhi. Ha esperienza nel lavoro su una vasta gamma di problemi di apprendimento automatico nel campo dell'elaborazione del linguaggio naturale, della visione artificiale e dell'analisi delle serie temporali.
Rachna Chada è Principal Solutions Architect AI/ML in Strategic Accounts presso AWS. Rachna è un'ottimista che crede che l'uso etico e responsabile dell'IA possa migliorare la società in futuro e portare prosperità economica e sociale. Nel tempo libero, a Rachna piace passare il tempo con la sua famiglia, fare escursioni e ascoltare musica.
Dottor Ashish Khetan è un Senior Applied Scientist con algoritmi integrati di Amazon SageMaker e aiuta a sviluppare algoritmi di machine learning. Ha conseguito il dottorato di ricerca presso l'Università dell'Illinois Urbana-Champaign. È un ricercatore attivo nell'apprendimento automatico e nell'inferenza statistica e ha pubblicato numerosi articoli nelle conferenze NeurIPS, ICML, ICLR, JMLR, ACL e EMNLP.
- Distribuzione di contenuti basati su SEO e PR. Ricevi amplificazione oggi.
- PlatoAiStream. Intelligenza dei dati Web3. Conoscenza amplificata. Accedi qui.
- Coniare il futuro con Adryenn Ashley. Accedi qui.
- Acquista e vendi azioni in società PRE-IPO con PREIPO®. Accedi qui.
- Fonte: https://aws.amazon.com/blogs/machine-learning/perform-batch-transforms-with-amazon-sagemaker-jumpstart-text2text-generation-large-language-models/
- :ha
- :È
- :non
- :Dove
- $ SU
- 000
- 1
- 10
- 100
- 11
- 13
- 14
- 20
- 2014
- 50
- 7
- 8
- 9
- a
- capace
- WRI
- sopra
- accettazione
- accettato
- accesso
- Secondo
- conti
- Raggiungere
- Acquisisce
- operanti in
- azioni
- attivo
- Avanzate
- vantaggioso
- contro
- AI
- AI / ML
- aiuto
- Algoritmi
- Tutti
- presunta
- consente
- anche
- Amazon
- Amazon Sage Maker
- JumpStart di Amazon SageMaker
- Amazon Web Services
- an
- .
- ed
- Annunciare
- in qualsiasi
- api
- applicato
- approccio
- SONO
- in giro
- articolo
- news
- AS
- At
- Tentativi
- autorità
- Automatico
- automaticamente
- disponibile
- evitare
- AWS
- Equilibrio
- base
- basato
- BE
- è diventato
- perché
- diventa
- prima
- essendo
- CREDIAMO
- crede
- benzoino
- Meglio
- fra
- stile di vita
- entrambi
- Entrambe le parti
- confini
- brevemente
- portare
- Porta
- incassato
- affari
- ma
- by
- chiamata
- Materiale
- non può
- casi
- Causare
- oneri
- Scegli
- classe
- cliente
- più vicino
- CNN
- codice
- combinare
- combina
- combinando
- Venire
- impegni
- impegnata
- Uncommon
- confrontare
- completamento di una
- Calcolare
- computer
- Visione computerizzata
- concetto
- Segui il codice di Condotta
- conferenze
- Contenitore
- continua
- continuo
- contribuito
- Costo
- costo effettivo
- potuto
- consiglio
- controproducente
- paesi
- Corte
- creare
- Creazione
- crimini
- Azione Penale
- dati
- inserimento dati
- dataset
- morto
- decisione
- Predefinito
- Delhi
- dimostrare
- dimostrato
- Shirts Department
- Dipendente
- schierare
- deployment
- descritta
- Determinare
- sviluppare
- Mercato
- differire
- differenze
- diverso
- dirette
- paesaggio differenziato
- do
- docker
- dominio
- fatto
- Dont
- Porta
- giù
- durata
- durante
- ogni
- In precedenza
- est
- facile
- Economico
- efficiente
- sforzi
- eleggibile
- consentendo
- fine
- endpoint
- ingegnere
- garantire
- entra
- iscrizione
- Ambiente
- epoca
- etico
- valutare
- la valutazione
- valutazione
- Anche
- prova
- esempio
- Esempi
- Tranne
- eccitato
- esecuzione
- esperienza
- estratto
- Faccia
- fede
- famiglia
- pochi
- Compila il
- File
- Nome
- i seguenti
- Nel
- forza
- estero
- formale
- formalmente
- formato
- Avanti
- fondazione
- da
- pieno
- ulteriormente
- futuro
- ELETTRICA
- generatore
- ottenere
- dà
- Go
- Obiettivi
- I governi
- GPU
- maggiore
- Terra
- Gruppo
- Hardware
- Avere
- he
- Aiuto
- aiuta
- suo
- qui
- Alta
- evidenzia
- il suo
- ospitato
- Come
- Tutorial
- Tuttavia
- HTML
- http
- HTTPS
- abbracciare il viso
- umano
- diritti umani
- Umanità
- ID
- ids
- if
- Illinois
- Immagine
- subito
- Implementazione
- importare
- competenze
- in
- includere
- Compreso
- Aumento
- Corsi di lingua
- individuale
- Individualmente
- informazioni
- Infrastruttura
- inizialmente
- ingiustizia
- ingresso
- Ingressi
- inchiesta
- esempio
- invece
- Istituto
- Internazionale
- interpretazione
- ai miglioramenti
- indagare
- indagine
- Indagini
- Israele
- IT
- SUO
- Gennaio
- Lavoro
- join
- accoppiamento
- jpg
- json
- giudice
- giugno
- Giurisdizione
- ad appena
- giustizia
- Le
- Sapere
- atterraggio
- Lingua
- grandi
- Cognome
- Latenza
- dopo
- lancia
- apprendimento
- a sinistra
- lasciare
- leggermente
- piace
- piace
- linea
- Linee
- connesso
- collegamento
- Lista
- Ascolto
- caricare
- Lunghi
- più a lungo
- Basso
- macchina
- machine learning
- make
- Fare
- gestisce
- modo
- molti
- segnato
- abbinato
- corrispondenza
- matematico
- Maggio..
- si intende
- membro
- Utenti
- iscrizione
- Memorie
- metodo
- Metrica
- minimizzando
- ML
- Moda
- modello
- modelli
- Mese
- Scopri di più
- cambiano
- Musica
- devono obbligatoriamente:
- Nome
- Naturale
- Elaborazione del linguaggio naturale
- necessaria
- Bisogno
- negoziati
- Nessuno dei due
- Olanda
- internazionale
- New
- notizie
- comunicato stampa
- taccuino
- adesso
- oggetto
- ottenendo
- of
- Office
- Ufficialmente
- on
- ONE
- esclusivamente
- aprire
- open source
- ha aperto
- opporsi
- opposto
- or
- i
- OS
- nostro
- su
- produzione
- ancora
- pacchetto
- pagina
- Palestina
- documenti
- parametro
- parametri
- parte
- partito
- passare
- sentiero
- Pavimentazione
- pace
- Persone
- Eseguire
- permessi
- Platone
- Platone Data Intelligence
- PlatoneDati
- per favore
- punto
- possibile
- Post
- predire
- previsto
- predizione
- Previsioni
- Predictor
- preferito
- Preparare
- preparato
- prerequisiti
- Presidente
- pressione
- premio
- primo ministro
- Direttore
- Problema
- problemi
- processi
- i processi
- lavorazione
- Prodotto
- prosperità
- fornire
- purché
- fornisce
- fornitura
- pubblicato
- fini
- Python
- gamma
- pronto
- di rose
- tempo reale
- record
- record
- Riferimenti
- si riferisce
- rilasciare
- rimosso
- RIPETUTAMENTE
- rapporto
- richiesta
- richieste
- richiedere
- necessario
- Requisiti
- ricercatore
- Risorse
- risposta
- risposte
- responsabilità
- responsabile
- colpevole
- Risultati
- ritorno
- problemi
- recensioni
- diritti
- Ruolo
- Roma
- RIGA
- Correre
- s
- sagemaker
- Inferenza di SageMaker
- Suddetto
- stesso
- detto
- Scenari
- SCIENZE
- Scienziato
- Punto
- sdk
- vedere
- cerca
- selezionato
- inviare
- anziano
- Serie
- Servizi
- set
- regolazione
- flessibile.
- condiviso
- lei
- dovrebbero
- mostrare attraverso le sue creazioni
- vetrina
- Spettacoli
- lati
- firmato
- Allo stesso modo
- Un'espansione
- da
- situazione
- situazioni
- Taglia
- piccole
- So
- Social
- Società
- Software
- soluzione
- Soluzioni
- alcuni
- parlare
- parlando
- Spendere
- inizia a
- iniziato
- Regione / Stato
- Dipartimento di Stato
- state-of-the-art
- dichiarazione
- stati
- statistiche
- step
- Passi
- Ancora
- fermato
- conservazione
- Tornare al suo account
- memorizzati
- lineare
- Strategico
- ruscello
- Streaming
- fortemente
- soggetto
- riassumere
- SOMMARIO
- estate
- supporto
- Fai
- preso
- prende
- Task
- task
- Tech
- modelli
- territori
- territorio
- test
- di
- che
- Il
- le informazioni
- paesi Bassi
- Lo Stato
- il mondo
- loro
- Li
- poi
- perciò
- Strumenti Bowman per analizzare le seguenti finiture:
- di
- questo
- quelli
- Attraverso
- portata
- tempo
- Serie storiche
- a
- oggi
- insieme
- strappato
- verso
- Treni
- Trasformare
- trasformatore
- trasforma
- Traduzione
- vero
- Verità
- Digitare
- Tipi di
- minare
- Unito
- Stati Uniti
- universale
- Università
- a differenza di
- Caricamento
- su
- us
- uso
- utilizzato
- utilizzando
- Vicepresidente
- visione
- volumi
- W
- volere
- guerra
- Prima
- Orologio
- Modo..
- we
- sito web
- servizi web
- Mercoledì
- il benvenuto
- accolto
- WELL
- Che
- quando
- se
- quale
- while
- OMS
- largo
- Vasta gamma
- volere
- con
- entro
- senza
- lavoro
- mondo
- sarebbe
- Tu
- Trasferimento da aeroporto a Sharm
- zefiro