Astăzi suntem încântați să anunțăm că acum puteți efectua transformări în lot cu Amazon SageMaker JumpStart modele de limbaj mari (LLM) pentru Text2Text Generation. Transformările în lot sunt utile în situațiile în care răspunsurile nu trebuie să fie în timp real și, prin urmare, puteți face inferențe în lot pentru seturi de date mari în vrac. Pentru transformarea lotului, se rulează o lucrare batch care preia intrarea lotului ca set de date și model pre-antrenat și emite predicții pentru fiecare punct de date din setul de date. Transformarea batch este rentabilă, deoarece spre deosebire de punctele finale găzduite în timp real care au hardware persistent, clusterele de transformare batch sunt dărâmate când lucrarea este finalizată și, prin urmare, hardware-ul este utilizat numai pe durata jobului batch.
În unele cazuri de utilizare, solicitările de inferență în timp real pot fi grupate în loturi mici pentru procesarea în lot pentru a crea răspunsuri în timp real sau aproape în timp real. De exemplu, dacă trebuie să procesați un flux continuu de date cu latență scăzută și debit mare, invocarea unui punct final în timp real pentru fiecare cerere separat ar necesita mai multe resurse și poate dura mai mult pentru a procesa toate cererile, deoarece procesarea se face în serie. . O abordare mai bună ar fi să grupați unele dintre solicitări și să apelați punctul final în timp real în modul de inferență în lot, care vă procesează cererile într-o singură trecere înainte a modelului și returnează răspunsul în bloc pentru cerere în timp real sau aproape în timp real. . Latența răspunsului va depinde de câte solicitări grupați și de dimensiunea memoriei instanței, prin urmare puteți ajusta dimensiunea lotului în funcție de cerințele dvs. de afaceri pentru latență și debit. Noi numim asta inferență în lot în timp real deoarece combină conceptul de loturi oferind totuși răspunsuri în timp real. Cu inferența în lot în timp real, puteți obține un echilibru între latența scăzută și debitul ridicat, permițându-vă să procesați volume mari de date în timp util și eficient.
Transformarea batch Jumpstart pentru modelele Text2Text Generation vă permite să treceți hiperparametrii lotului prin variabile de mediu care măresc și mai mult debitul și minimizează latența.
JumpStart oferă modele open-source pregătite pentru o gamă largă de tipuri de probleme, pentru a vă ajuta să începeți cu învățarea automată (ML). Puteți antrena și ajusta progresiv aceste modele înainte de implementare. JumpStart oferă, de asemenea, șabloane de soluții care configurează infrastructura pentru cazuri de utilizare obișnuite și exemple de notebook-uri executabile pentru ML cu Amazon SageMaker. Puteți accesa modelele pre-instruite, șabloanele de soluții și exemplele prin pagina de destinație JumpStart din Amazon SageMaker Studio. De asemenea, puteți accesa modelele JumpStart folosind SDK-ul SageMaker Python.
În această postare, demonstrăm cum să folosiți echipamentele pre-instruite de ultimă generație text2text Modele FLAN T5 de la Hugging Face pentru transformarea lotului și deducerea loturilor în timp real.
Prezentare generală a soluțiilor
Notebook-ul care arată transformarea în lot a modelelor Text2Text FLAN T5 pre-antrenate de la Fata îmbrățișată disponibile în cele ce urmează GitHub depozit. Acest notebook folosește date de la Hugging Face cnn_dailymail set de date pentru o sarcină de rezumare a textului folosind SDK-ul SageMaker.
Următorii sunt pașii cheie pentru implementarea transformării lotului și a inferenței loturilor în timp real:
- Configurați cerințele preliminare.
- Selectați un model pre-antrenat.
- Preluați artefacte pentru model.
- Specificați hiperparametrii jobului de transformare în loturi.
- Pregătiți datele pentru transformarea lotului.
- Rulați sarcina de transformare în lot.
- Evaluați rezumatul folosind a ROȘU (Recall-Oriented Understudy for Gisting Evaluation) scor.
- Efectuați inferențe pe lot în timp real.
Configurați cerințele preliminare
Înainte de a rula notebook-ul, trebuie să parcurgeți câțiva pași inițiali de configurare. Să setăm rolul de execuție SageMaker, astfel încât să aibă permisiuni să ruleze servicii AWS în numele tău:
Selectați un model pre-antrenat
Folosim modelul huggingface-text2text-flan-t5-large ca model implicit. Opțional, puteți prelua lista de modele Text2Text disponibile pe JumpStart și puteți alege modelul preferat. Această metodă oferă o modalitate simplă de a selecta diferite ID-uri de model folosind același notebook. În scopuri demonstrative, folosim modelul huggingface-text2text-flan-t5-large:
Preluați artefacte pentru model
Cu SageMaker, putem efectua inferențe pe modelul pre-antrenat, chiar și fără a-l ajusta mai întâi pe un nou set de date. Începem prin a prelua deploy_image_uri
, deploy_source_uri
, și model_uri
pentru modelul pre-antrenat:
Specificați hiperparametrii jobului de transformare în loturi
Puteți trece orice subset de hiperparametri ca variabile de mediu la jobul de transformare în lot. De asemenea, puteți trece acești hiperparametri într-o sarcină utilă JSON. Cu toate acestea, dacă setați variabile de mediu pentru hiperparametri, așa cum arată codul următor, atunci hiperparametrii avansați din exemplele individuale din sarcina utilă a liniilor JSON nu vor fi utilizați. Dacă doriți să utilizați hiperparametrii din sarcina utilă, poate doriți să setați hyper_params_dict
parametrul ca nul în schimb.
Pregătiți datele pentru transformarea lotului
Acum suntem gata să încărcăm cnn_dailymail set de date de la Hugging Face:
Trecem peste fiecare intrare de date și creăm datele de intrare în formatul necesar. Creăm un articles.jsonl
fișier ca fișier de date de testare care conține articole care trebuie rezumate ca sarcină utilă de intrare. Pe măsură ce creăm acest fișier, anexăm promptul "Briefly summarize this text:"
la fiecare rând de intrare de test. Dacă doriți să aveți hiperparametri diferiți pentru fiecare intrare de test, puteți adăuga acești hiperparametri ca parte a creării setului de date.
Noi creăm highlights.jsonl
ca fișierul adevărului de bază care conține elementele evidențiate ale fiecărui articol stocat în fișierul de testare articles.jsonl
. Stocăm ambele fișiere de testare într-un Serviciul Amazon de stocare simplă (Amazon S3) găleată. Vezi următorul cod:
Rulați sarcina de transformare în lot
Când începeți o lucrare de transformare în lot, SageMaker lansează resursele de calcul necesare pentru a procesa datele, inclusiv instanțele CPU sau GPU, în funcție de tipul de instanță selectat. În timpul procesului de transformare în loturi, SageMaker asigură și gestionează automat resursele de calcul necesare procesării datelor, inclusiv instanțe, stocare și resurse de rețea. Când sarcina de transformare în lot este finalizată, resursele de calcul sunt curățate automat de SageMaker. Aceasta înseamnă că instanțele și stocarea utilizate în timpul lucrării sunt oprite și eliminate, eliberând resurse și minimizând costurile. Vezi următorul cod:
Următorul este un exemplu de înregistrare din articles.jsonl
fisierul de testare. Rețineți că înregistrarea din acest fișier are un ID care se potrivește cu predict.jsonl
înregistrări de fișiere care arată o înregistrare rezumată ca rezultat din modelul Hugging Face Text2Text. În mod similar, fișierul de adevăr de la sol are, de asemenea, un ID care se potrivește pentru înregistrarea de date. ID-ul de potrivire în fișierul de testare, fișierul de adevăr de teren și fișierul de ieșire permite conectarea înregistrărilor de intrare cu înregistrările de ieșire pentru o interpretare ușoară a rezultatelor.
Următorul este exemplul de înregistrare de intrare furnizată pentru rezumat:
Următorul este rezultatul estimat cu rezumat:
Următoarea este rezumarea adevărului de bază în scopul evaluării modelului:
În continuare, folosim adevărul de bază și rezultatele prezise pentru evaluarea modelului.
Evaluați modelul folosind un scor ROUGE¶
ROȘU, sau Recall-Oriented Understudy pentru Gisting Evaluation, este un set de metrici și un pachet software utilizat pentru evaluarea rezumatului automat și a traducerii automate în procesarea limbajului natural. Valorile compară un rezumat sau o traducere produsă automat cu un rezumat sau traducere de referință (produs de oameni) sau cu un set de referințe.
În codul următor, combinăm rezumatele anticipate și cele originale, unindu-le pe cheia comună id
și folosește asta pentru a calcula scorul ROUGE:
Efectuați inferențe pe lot în timp real
În continuare, vă arătăm cum să rulați inferențe în lot în timp real pe punctul final, furnizând intrările sub formă de listă. Folosim același ID de model și set de date ca mai devreme, cu excepția faptului că luăm câteva înregistrări din setul de date de testare și le folosim pentru a invoca un punct final în timp real.
Următorul cod arată cum să creați și să implementați un punct final în timp real pentru inferență în loturi în timp real:
În continuare, ne pregătim sarcina utilă de intrare. Pentru aceasta, folosim datele pe care le-am pregătit mai devreme și extragem primele 10 intrări de test și anexăm intrările de text cu hiperparametrii pe care vrem să-i folosim. Oferim această sarcină utilă în timp real invoke_endpoint
. Sarcina de răspuns este apoi returnată ca o listă de răspunsuri. Vezi următorul cod:
A curăța
După ce ați testat punctul final, asigurați-vă că ștergeți punctul final de inferență SageMaker și ștergeți modelul pentru a evita costurile.
Concluzie
În acest caiet, am efectuat o transformare în lot pentru a prezenta modelul Hugging Face Text2Text Generator pentru sarcini de rezumat. Transformarea lotului este avantajoasă în obținerea de inferențe din seturi mari de date fără a necesita un punct final persistent. Am legat înregistrările de intrare cu inferențe pentru a ajuta la interpretarea rezultatelor. Am folosit scorul ROUGE pentru a compara rezumarea datelor de test cu rezumatul generat de model.
În plus, am demonstrat inferența pe lot în timp real, în care puteți trimite un lot mic de date la un punct final în timp real pentru a obține un echilibru între latență și debit pentru scenarii precum fluxul de date de intrare. Inferența pe lot în timp real ajută la creșterea debitului pentru solicitările în timp real.
Încercați astăzi transformarea lotului cu modelele Text2Text Generation în SageMaker și transmiteți-ne feedback-ul dvs.!
Despre autori
Hemant Singh este un inginer de învățare automată cu experiență în algoritmii încorporați Amazon SageMaker JumpStart și Amazon SageMaker. Și-a obținut masterul de la Institutul Courant de Științe Matematice și B.Tech de la IIT Delhi. El are experiență în lucrul la o gamă variată de probleme de învățare automată în domeniul procesării limbajului natural, al vederii computerizate și al analizei seriilor temporale.
Rachna Chadha este arhitect principal de soluții AI/ML în conturi strategice la AWS. Rachna este o optimistă care crede că utilizarea etică și responsabilă a inteligenței artificiale poate îmbunătăți societatea în viitor și poate aduce prosperitate economică și socială. În timpul liber, Rachnei îi place să petreacă timpul cu familia ei, să facă drumeții și să asculte muzică.
Dr. Ashish Khetan este un om de știință senior aplicat cu algoritmi încorporați Amazon SageMaker și ajută la dezvoltarea algoritmilor de învățare automată. Și-a luat doctoratul la Universitatea din Illinois Urbana-Champaign. Este un cercetător activ în învățarea automată și inferența statistică și a publicat multe lucrări în conferințele NeurIPS, ICML, ICLR, JMLR, ACL și EMNLP.
- Distribuție de conținut bazat pe SEO și PR. Amplifică-te astăzi.
- PlatoAiStream. Web3 Data Intelligence. Cunoștințe amplificate. Accesați Aici.
- Mintând viitorul cu Adryenn Ashley. Accesați Aici.
- Cumpărați și vindeți acțiuni în companii PRE-IPO cu PREIPO®. Accesați Aici.
- Sursa: https://aws.amazon.com/blogs/machine-learning/perform-batch-transforms-with-amazon-sagemaker-jumpstart-text2text-generation-large-language-models/
- :are
- :este
- :nu
- :Unde
- $UP
- 000
- 1
- 10
- 100
- 11
- 13
- 14
- 20
- 2014
- 50
- 7
- 8
- 9
- a
- Capabil
- Despre Noi
- mai sus
- acceptare
- admis
- acces
- Conform
- Conturi
- Obține
- achiziţionează
- peste
- acțiuni
- activ
- avansat
- avantajos
- împotriva
- AI
- AI / ML
- Ajutorul
- algoritmi
- TOATE
- pretins
- permite
- de asemenea
- Amazon
- Amazon SageMaker
- Amazon SageMaker JumpStart
- Amazon Web Services
- an
- analiză
- și
- anunța
- Orice
- api
- aplicat
- abordare
- SUNT
- în jurul
- articol
- bunuri
- AS
- At
- Încercările
- autoritate
- Automat
- în mod automat
- disponibil
- evita
- AWS
- Sold
- de bază
- bazat
- BE
- a devenit
- deoarece
- devine
- înainte
- fiind
- Crede
- consideră că
- Benjamin
- Mai bine
- între
- corp
- atât
- Ambele părți
- limitele
- scurt
- aduce
- Aduce
- construit-in
- afaceri
- dar
- by
- apel
- CAN
- nu poti
- cazuri
- Provoca
- taxe
- Alege
- clasă
- client
- mai aproape
- CNN
- cod
- combina
- combină
- combinând
- cum
- angajamentele
- comise
- Comun
- comparaţie
- Completă
- Calcula
- calculator
- Computer Vision
- concept
- Conduce
- conferințe
- Recipient
- continua
- continuu
- Contribuit
- A costat
- cost-eficiente
- ar putea
- sfat
- contraproductiv
- țări
- Tribunal
- crea
- Crearea
- infracțiuni
- Penal
- de date
- de introducere a datelor
- seturi de date
- mort
- decizie
- Mod implicit
- Delhi
- demonstra
- demonstrat
- Departament
- În funcție
- implementa
- desfășurarea
- descris
- Determina
- dezvolta
- Dezvoltare
- diferi
- diferenţele
- diferit
- direcționa
- diferit
- do
- Docher
- domeniu
- făcut
- Dont
- De
- jos
- durată
- în timpul
- fiecare
- Mai devreme
- Est
- uşor
- Economic
- eficient
- Eforturile
- eligibil
- permițând
- capăt
- Punct final
- inginer
- asigura
- intră
- intrare
- Mediu inconjurator
- Eră
- etic
- evalua
- evaluarea
- evaluare
- Chiar
- dovadă
- exemplu
- exemple
- Cu excepția
- excitat
- execuție
- experienţă
- extrage
- Față
- credinţă
- familie
- puțini
- Fișier
- Fişiere
- First
- următor
- Pentru
- Forţarea
- străin
- formal
- Oficial
- format
- Înainte
- fondator
- din
- Complet
- mai mult
- viitor
- generaţie
- generator
- obține
- oferă
- Go
- Goluri
- guvernele
- GPU
- mai mare
- Teren
- grup
- Piese metalice
- Avea
- he
- ajutor
- ajută
- ei
- aici
- Înalt
- highlights-uri
- lui
- găzduit
- Cum
- Cum Pentru a
- Totuși
- HTML
- http
- HTTPS
- Față îmbrățișată
- uman
- drepturile omului
- Umanitate
- ID
- ID-uri
- if
- Illinois
- imagine
- imediat
- Punere în aplicare a
- import
- îmbunătăţi
- in
- include
- Inclusiv
- Crește
- independenţă
- individ
- Individual
- informații
- Infrastructură
- inițială
- nedreptate
- intrare
- intrări
- anchetă
- instanță
- in schimb
- Institut
- Internațional
- interpretare
- în
- investiga
- investigaţie
- Investigații
- Israel
- IT
- ESTE
- ianuarie
- Loc de munca
- alătura
- aderarea
- jpg
- JSON
- judecător
- iunie
- competență
- doar
- Justiție
- Cheie
- Cunoaște
- aterizare
- limbă
- mare
- Nume
- Latență
- mai tarziu
- lansează
- învăţare
- stânga
- lăsa
- uşor
- ca
- îi place
- Linie
- linii
- legate de
- legarea
- Listă
- Ascultare
- încărca
- Lung
- mai lung
- Jos
- maşină
- masina de învățare
- face
- Efectuarea
- gestionează
- manieră
- multe
- marcat
- potrivire
- potrivire
- matematic
- Mai..
- mijloace
- membru
- Membri actuali
- apartenență
- Memorie
- metodă
- Metrici
- minimizând
- ML
- mod
- model
- Modele
- Lună
- mai mult
- muta
- Muzică
- trebuie sa
- nume
- Natural
- Procesarea limbajului natural
- necesar
- Nevoie
- negocieri
- Nici
- Olanda
- rețele
- Nou
- ştiri
- comunicat de presă
- caiet
- acum
- obiect
- obținerea
- of
- Birou
- Oficial
- on
- ONE
- afară
- deschide
- open-source
- deschis
- opune
- opus
- or
- original
- OS
- al nostru
- afară
- producție
- peste
- pachet
- pagină
- Palestina
- lucrări
- parametru
- parametrii
- parte
- parte
- trece
- cale
- Pavaj
- pace
- oameni
- Efectua
- permisiuni
- Plato
- Informații despre date Platon
- PlatoData
- "vă rog"
- Punct
- posibil
- Post
- prezice
- a prezis
- prezicere
- Predictii
- Predictor
- preferat
- Pregăti
- pregătit
- premise
- preşedinte
- presiune
- Prim
- primul ministru
- Principal
- Problemă
- probleme
- proces
- procese
- prelucrare
- Produs
- prosperitate
- furniza
- prevăzut
- furnizează
- furnizarea
- publicat
- scopuri
- Piton
- gamă
- gata
- real
- în timp real
- record
- înregistrări
- referințe
- se referă
- eliberaţi
- îndepărtat
- REPETAT
- raportează
- solicita
- cereri de
- necesita
- necesar
- Cerinţe
- cercetător
- Resurse
- răspuns
- răspunsuri
- responsabilităţi
- responsabil
- rezultat
- REZULTATE
- reveni
- Returnează
- revizuiască
- Drepturile
- Rol
- Roma
- RÂND
- Alerga
- s
- sagemaker
- SageMaker Inference
- Said
- acelaşi
- spunând
- scenarii
- ȘTIINȚE
- Om de stiinta
- scor
- sdk
- vedea
- caută
- selectate
- trimite
- senior
- serie
- Servicii
- set
- instalare
- configurarea
- comun
- ea
- să
- Arăta
- prezenta
- Emisiuni
- fete
- semnat
- asemănător
- simplu
- întrucât
- situație
- situații
- Mărimea
- mic
- So
- Social
- Societate
- Software
- soluţie
- soluţii
- unele
- vorbi
- vorbire
- Cheltuire
- Începe
- început
- Stat
- Departamentul de Stat
- de ultimă oră
- Declarație
- Statele
- statistic
- Pas
- paşi
- Încă
- oprit
- depozitare
- stoca
- stocate
- simplu
- Strategic
- curent
- de streaming
- tare
- subiect
- rezuma
- REZUMAT
- de vară
- a sustine
- Lua
- luate
- ia
- Sarcină
- sarcini
- tech
- şabloane
- teritorii
- teritoriu
- test
- decât
- acea
- informațiile
- Olanda
- Statul
- lumea
- lor
- Lor
- apoi
- prin urmare
- Acestea
- ei
- acest
- aceste
- Prin
- debit
- timp
- Seria de timp
- la
- astăzi
- împreună
- rupt
- spre
- Tren
- Transforma
- transformator
- transformatele
- Traducere
- adevărat
- Adevăr
- tip
- Tipuri
- Submina
- Unit
- Statele Unite
- Universal
- universitate
- spre deosebire de
- Se încarcă
- pe
- us
- utilizare
- utilizat
- folosind
- Vicepreședinte
- viziune
- volume
- W
- vrea
- război
- a fost
- Ceas
- Cale..
- we
- web
- servicii web
- miercuri
- bun venit
- salutat
- BINE
- Ce
- cand
- dacă
- care
- în timp ce
- OMS
- larg
- Gamă largă
- voi
- cu
- în
- fără
- de lucru
- lume
- ar
- Tu
- Ta
- zephyrnet