Idag är vi glada att kunna meddela att du nu kan utföra batchtransformationer med Amazon SageMaker JumpStart stora språkmodeller (LLM) för Text2Text Generation. Batchtransformationer är användbara i situationer där svaren inte behöver vara i realtid och därför kan du göra slutsatser i batch för stora datamängder i bulk. För batchtransformering körs ett batchjobb som tar batchinmatning som en datamängd och en förtränad modell, och matar ut förutsägelser för varje datapunkt i datamängden. Batchtransform är kostnadseffektiv eftersom till skillnad från realtidsvärdade slutpunkter som har beständig hårdvara, rivs batchtransformkluster ner när jobbet är klart och därför används hårdvaran bara under batchjobbets varaktighet.
I vissa fall kan slutledningsförfrågningar i realtid grupperas i små partier för batchbearbetning för att skapa svar i realtid eller nästan i realtid. Om du till exempel behöver bearbeta en kontinuerlig ström av data med låg latens och hög genomströmning, skulle anropa en realtidsslutpunkt för varje begäran separat kräva mer resurser och kan ta längre tid att bearbeta alla förfrågningar eftersom behandlingen sker i serie . Ett bättre tillvägagångssätt skulle vara att gruppera några av förfrågningarna och anropa realtidsslutpunkten i batch-inferensläge, som behandlar dina förfrågningar i ett framåtpass av modellen och returnerar bulksvaret för begäran i realtid eller nästan realtid . Svarets latens beror på hur många förfrågningar du grupperar och instansminnesstorleken, därför kan du justera batchstorleken enligt dina affärskrav för latens och genomströmning. Vi kallar detta batch slutledning i realtid eftersom det kombinerar konceptet med batchning samtidigt som det ger svar i realtid. Med batch-inferens i realtid kan du uppnå en balans mellan låg latens och hög genomströmning, vilket gör att du kan bearbeta stora datamängder på ett snabbt och effektivt sätt.
Jumpstart batch-transformation för Text2Text Generation-modeller låter dig skicka batchhyperparametrarna genom miljövariabler som ytterligare ökar genomströmningen och minimerar latensen.
JumpStart tillhandahåller förtränade modeller med öppen källkod för ett brett utbud av problemtyper för att hjälpa dig komma igång med maskininlärning (ML). Du kan stegvis träna och ställa in dessa modeller före driftsättning. JumpStart tillhandahåller också lösningsmallar som ställer in infrastruktur för vanliga användningsfall och körbara exempel anteckningsböcker för ML med Amazon SageMaker. Du kan komma åt de förutbildade modellerna, lösningsmallarna och exemplen via JumpStart-målsidan i Amazon SageMaker Studio. Du kan också komma åt JumpStart-modeller med SageMaker Python SDK.
I det här inlägget visar vi hur man använder den senaste förutbildade text2text FLAN T5-modeller från Hugging Face för batchtransformering och batchslutledning i realtid.
Lösningsöversikt
Anteckningsboken som visar batchtransformation av förtränade Text2Text FLAN T5-modeller från Kramande ansikte finns i följande GitHub repository. Den här anteckningsboken använder data från Hugging Face cnn_daymail datauppsättning för en textsammanfattningsuppgift med SageMaker SDK.
Följande är nyckelstegen för att implementera batchtransformering och batchinferens i realtid:
- Ställ in förutsättningar.
- Välj en förutbildad modell.
- Hämta artefakter för modellen.
- Ange hyperparametrar för batchtransformeringsjobb.
- Förbered data för batchtransformeringen.
- Kör batchtransformeringsjobbet.
- Utvärdera sammanfattningen med hjälp av a RÖD (Recall-Oriented Understudy for Gisting Evaluation) poäng.
- Utför batch slutledning i realtid.
Ställ in förutsättningar
Innan du kör notebook-datorn måste du slutföra några inledande installationssteg. Låt oss ställa in SageMaker-exekveringsrollen så att den har behörighet att köra AWS-tjänster för din räkning:
Välj en förutbildad modell
Vi använder huggingface-text2text-flan-t5-large-modellen som standardmodell. Alternativt kan du hämta listan över tillgängliga Text2Text-modeller på JumpStart och välja din föredragna modell. Denna metod ger ett enkelt sätt att välja olika modell-ID:n med samma anteckningsbok. I demonstrationssyfte använder vi modellen huggingface-text2text-flan-t5-large:
Hämta artefakter för modellen
Med SageMaker kan vi göra slutledningar på den förtränade modellen, även utan att finjustera den först på en ny datamängd. Vi börjar med att hämta deploy_image_uri
, deploy_source_uri
och model_uri
för den förtränade modellen:
Ange hyperparametrar för batchtransformeringsjobb
Du kan skicka vilken delmängd som helst av hyperparametrar som miljövariabler till batchtransformeringsjobbet. Du kan också skicka dessa hyperparametrar i en JSON-nyttolast. Men om du ställer in miljövariabler för hyperparametrar som följande kod visar, kommer de avancerade hyperparametrarna från de individuella exemplen i JSON-radernas nyttolast inte att användas. Om du vill använda hyperparametrar från nyttolasten, kanske du vill ställa in hyper_params_dict
parameter som null istället.
Förbered data för batchtransformering
Nu är vi redo att ladda cnn_daymail dataset från Hugging Face:
Vi går igenom varje datainmatning och skapar indata i önskat format. Vi skapar en articles.jsonl
fil som en testdatafil som innehåller artiklar som behöver sammanfattas som indatanyttolast. När vi skapar den här filen lägger vi till prompten "Briefly summarize this text:"
till varje testingångsrad. Om du vill ha olika hyperparametrar för varje testingång kan du lägga till dessa hyperparametrar som en del av att skapa datamängden.
Vi skapar highlights.jsonl
som grundsannningsfilen som innehåller höjdpunkter för varje artikel som lagras i testfilen articles.jsonl
. Vi lagrar båda testfilerna i en Amazon enkel lagringstjänst (Amazon S3) hink. Se följande kod:
Kör batchtransformeringsjobbet
När du startar ett batchtransformeringsjobb, startar SageMaker de nödvändiga beräkningsresurserna för att bearbeta data, inklusive CPU- eller GPU-instanser beroende på den valda instanstypen. Under batchtransformeringsjobbet tillhandahåller och hanterar SageMaker automatiskt de beräkningsresurser som krävs för att bearbeta data, inklusive instanser, lagrings- och nätverksresurser. När batchtransformeringsjobbet är klart rensas beräkningsresurserna automatiskt upp av SageMaker. Detta innebär att instanserna och lagringen som används under jobbet stoppas och tas bort, vilket frigör resurser och minimerar kostnaderna. Se följande kod:
Följande är ett exempel på rekord från articles.jsonl
testfil. Observera att posten i den här filen har ett ID som matchar predict.jsonl
filposter som visar en sammanfattad post som utdata från Hugging Face Text2Text-modellen. På samma sätt har ground truth-filen också ett matchande ID för dataposten. Det matchande ID:t över testfilen, marksanningsfilen och utdatafilen gör det möjligt att länka indataposter med utdataposter för enkel tolkning av resultaten.
Följande är exempel på indataposten som tillhandahålls för sammanfattning:
Följande är den förutspådda produktionen med sammanfattning:
Följande är grundsanningens sammanfattning för modellutvärderingsändamål:
Därefter använder vi grundsanningen och förutspådda utdata för modellutvärdering.
Utvärdera modellen med ett ROUGE-poäng¶
RÖD, eller Recall-Oriented Understudy for Gisting Evaluation, är en uppsättning mätvärden och ett mjukvarupaket som används för att utvärdera automatisk sammanfattning och maskinöversättning i naturlig språkbehandling. Mätvärdena jämför en automatiskt producerad sammanfattning eller översättning mot en referens (människproducerad) sammanfattning eller översättning eller en uppsättning referenser.
I följande kod kombinerar vi de förutsagda och ursprungliga sammanfattningarna genom att sammanfoga dem på den gemensamma nyckeln id
och använd detta för att beräkna ROUGE-poängen:
Utför batch slutledning i realtid
Därefter visar vi dig hur du kör batch-inferens i realtid på slutpunkten genom att tillhandahålla ingångarna som en lista. Vi använder samma modell-ID och datauppsättning som tidigare, förutom att vi tar några få poster från testdatauppsättningen och använder dem för att anropa en slutpunkt i realtid.
Följande kod visar hur man skapar och distribuerar en realtidsslutpunkt för batch-slutledning i realtid:
Därefter förbereder vi vår indatanyttolast. För detta använder vi data som vi förberett tidigare och extraherar de första 10 testingångarna och lägger till textinmatningarna med hyperparametrar som vi vill använda. Vi tillhandahåller denna nyttolast i realtid invoke_endpoint
. Svarsnyttolasten returneras sedan som en lista med svar. Se följande kod:
Städa upp
Efter att du har testat slutpunkten, se till att du tar bort SageMaker slutpunkten och tar bort modellen för att undvika avgifter.
Slutsats
I den här anteckningsboken utförde vi en batchtransformering för att visa upp Hugging Face Text2Text Generator-modellen för sammanfattningsuppgifter. Batchtransform är fördelaktigt för att erhålla slutsatser från stora datamängder utan att kräva en beständig slutpunkt. Vi kopplade indataposter med slutsatser för att underlätta resultattolkningen. Vi använde ROUGE-poängen för att jämföra testdatasammanfattningen med den modellgenererade sammanfattningen.
Dessutom demonstrerade vi batch-inferens i realtid, där du kan skicka en liten batch data till en realtidsslutpunkt för att uppnå en balans mellan latens och genomströmning för scenarier som strömmande indata. Batch-inferens i realtid hjälper till att öka genomströmningen för realtidsförfrågningar.
Prova batchtransformeringen med Text2Text Generation-modeller i SageMaker idag och låt oss veta din feedback!
Om författarna
Hemant Singh är en maskininlärningsingenjör med erfarenhet av Amazon SageMaker JumpStart och Amazon SageMaker inbyggda algoritmer. Han tog sina masters från Courant Institute of Mathematical Sciences och B.Tech från IIT Delhi. Han har erfarenhet av att arbeta med en mängd olika maskininlärningsproblem inom området naturlig språkbehandling, datorseende och tidsserieanalys.
Rachna Chadha är en Principal Solutions Architect AI/ML i Strategic Accounts på AWS. Rachna är en optimist som tror att den etiska och ansvarsfulla användningen av AI kan förbättra samhället i framtiden och ge ekonomiskt och socialt välstånd. På fritiden gillar Rachna att umgås med sin familj, vandra och lyssna på musik.
Dr Ashish Khetan är en Senior Applied Scientist med Amazon SageMaker inbyggda algoritmer och hjälper till att utveckla maskininlärningsalgoritmer. Han tog sin doktorsexamen från University of Illinois Urbana-Champaign. Han är en aktiv forskare inom maskininlärning och statistisk slutledning och har publicerat många artiklar i NeurIPS, ICML, ICLR, JMLR, ACL och EMNLP-konferenser.
- SEO-drivet innehåll och PR-distribution. Bli förstärkt idag.
- PlatoAiStream. Web3 Data Intelligence. Kunskap förstärkt. Tillgång här.
- Minting the Future med Adryenn Ashley. Tillgång här.
- Köp och sälj aktier i PRE-IPO-företag med PREIPO®. Tillgång här.
- Källa: https://aws.amazon.com/blogs/machine-learning/perform-batch-transforms-with-amazon-sagemaker-jumpstart-text2text-generation-large-language-models/
- : har
- :är
- :inte
- :var
- $UPP
- 000
- 1
- 10
- 100
- 11
- 13
- 14
- 20
- 2014
- 50
- 7
- 8
- 9
- a
- Able
- Om oss
- ovan
- godkännande
- accepterade
- tillgång
- Enligt
- konton
- Uppnå
- förvärvar
- tvärs
- åtgärder
- aktiv
- avancerat
- fördelaktig
- mot
- AI
- AI / ML
- Stöd
- algoritmer
- Alla
- påstådda
- tillåter
- också
- amason
- Amazon SageMaker
- Amazon SageMaker JumpStart
- Amazon Web Services
- an
- analys
- och
- Meddela
- vilken som helst
- api
- tillämpas
- tillvägagångssätt
- ÄR
- runt
- Artikeln
- artiklar
- AS
- At
- Försök
- myndighet
- Automat
- automatiskt
- tillgänglig
- undvika
- AWS
- Balansera
- bas
- baserat
- BE
- blev
- därför att
- blir
- innan
- Där vi får lov att vara utan att konstant prestera,
- tro
- tror
- Benjamin
- Bättre
- mellan
- kropp
- båda
- Båda sidor
- gränser
- i korthet
- föra
- Bringar
- inbyggd
- företag
- men
- by
- Ring
- KAN
- kan inte
- fall
- Orsak
- avgifter
- Välja
- klass
- klient
- närmare
- CNN
- koda
- kombinera
- kombinerar
- kombinera
- komma
- åtaganden
- engagerad
- Gemensam
- jämföra
- fullborda
- Compute
- dator
- Datorsyn
- begrepp
- Genomför
- konferenser
- Behållare
- fortsätta
- kontinuerlig
- bidrog
- Pris
- kostnadseffektiv
- kunde
- råd
- kontraproduktivt
- länder
- Domstol
- skapa
- Skapa
- brott
- Kriminell
- datum
- datainmatning
- datauppsättningar
- döda
- Beslutet
- Standard
- delhi
- demonstrera
- demonstreras
- Avdelning
- beroende
- distribuera
- utplacering
- beskriven
- Bestämma
- utveckla
- Utveckling
- skilja sig
- skillnader
- olika
- rikta
- flera
- do
- Hamnarbetare
- domän
- gjort
- inte
- Dörr
- ner
- varaktighet
- under
- varje
- Tidigare
- öster
- lätt
- Ekonomisk
- effektiv
- ansträngningar
- berättigad
- möjliggör
- änden
- Slutpunkt
- ingenjör
- säkerställa
- Går in
- inträde
- Miljö
- Era
- etisk
- utvärdera
- utvärdering
- utvärdering
- Även
- bevis
- exempel
- exempel
- Utom
- exciterade
- utförande
- erfarenhet
- extrahera
- Ansikte
- tron
- familj
- få
- Fil
- Filer
- Förnamn
- efter
- För
- kraft
- utländska
- formell
- Formellt
- format
- Framåt
- grundande
- från
- full
- ytterligare
- framtida
- generering
- Generatorn
- skaffa sig
- ger
- Go
- Mål
- Regeringar
- GPU
- större
- Marken
- Grupp
- hårdvara
- Har
- he
- hjälpa
- hjälper
- här
- här.
- Hög
- höjdpunkter
- hans
- värd
- Hur ser din drömresa ut
- How To
- Men
- html
- http
- HTTPS
- Kramar ansikte
- humant
- mänskliga rättigheter
- Mänskligheten
- ID
- ids
- if
- Illinois
- bild
- blir omedelbart
- genomföra
- importera
- förbättra
- in
- innefattar
- Inklusive
- Öka
- oberoende
- individuellt
- Individuellt
- informationen
- Infrastruktur
- inledande
- orättvisa
- ingång
- ingångar
- utredning
- exempel
- istället
- Institute
- Internationell
- tolkning
- in
- undersöka
- Undersökningen
- Undersökningar
- Israel
- IT
- DESS
- Januari
- Jobb
- delta
- sammanfogning
- jpg
- json
- Domaren
- juni
- jurisdiktion
- bara
- Rättvisa
- Nyckel
- Vet
- landning
- språk
- Large
- Efternamn
- Latens
- senare
- lanserar
- inlärning
- vänster
- Låt
- lätt
- tycka om
- gillar
- linje
- rader
- kopplade
- länkning
- Lista
- Lyssna
- läsa in
- Lång
- längre
- Låg
- Maskinen
- maskininlärning
- göra
- Framställning
- förvaltar
- sätt
- många
- markant
- matchas
- matchande
- matematisk
- Maj..
- betyder
- medlem
- Medlemmar
- medlemskap
- Minne
- metod
- Metrics
- minimerande
- ML
- Mode
- modell
- modeller
- Månad
- mer
- flytta
- Musik
- måste
- namn
- Natural
- Naturlig språkbehandling
- nödvändigt för
- Behöver
- förhandlingar
- Varken
- Nederländerna
- nätverk
- Nya
- nyheter
- pressmeddelande
- anteckningsbok
- nu
- objektet
- erhållande
- of
- Office
- Officiellt
- on
- ONE
- endast
- öppet
- öppen källkod
- öppnade
- motsätta
- motsatt
- or
- ursprungliga
- OS
- vår
- ut
- produktion
- över
- paket
- sida
- palestina
- papper
- parameter
- parametrar
- del
- parti
- passera
- bana
- Beläggning
- fred
- Personer
- Utföra
- behörigheter
- plato
- Platon Data Intelligence
- PlatonData
- snälla du
- Punkt
- möjlig
- Inlägg
- förutse
- förutsagda
- förutsägelse
- Förutsägelser
- Predictor
- föredragen
- Förbered
- beredd
- förutsättningar
- VD
- tryck
- Prime
- premiärminister
- Principal
- Problem
- problem
- process
- processer
- bearbetning
- producerad
- välstånd
- ge
- förutsatt
- ger
- tillhandahålla
- publicerade
- syfte
- Python
- område
- redo
- verklig
- realtid
- post
- register
- referenser
- hänvisar
- frigöra
- avlägsnas
- UPPREPAT
- rapport
- begära
- förfrågningar
- kräver
- Obligatorisk
- Krav
- forskaren
- Resurser
- respons
- svar
- ansvar
- ansvarig
- resultera
- Resultat
- avkastning
- återgår
- översyn
- rättigheter
- Roll
- rome
- RAD
- Körning
- s
- sagemaker
- SageMaker Inference
- Nämnda
- Samma
- säger
- scenarier
- VETENSKAPER
- Forskare
- göra
- sDK
- se
- söker
- vald
- sända
- senior
- Serier
- Tjänster
- in
- inställning
- inställning
- delas
- hon
- skall
- show
- visa
- Visar
- Sidor
- signerad
- Liknande
- Enkelt
- eftersom
- Situationen
- situationer
- Storlek
- Small
- So
- Social hållbarhet
- Samhället
- Mjukvara
- lösning
- Lösningar
- några
- tala
- tala
- Spendera
- starta
- igång
- Ange
- Utrikesdepartementet
- state-of-the-art
- .
- Stater
- statistisk
- Steg
- Steg
- Fortfarande
- slutade
- förvaring
- lagra
- lagras
- okomplicerad
- Strategisk
- ström
- streaming
- starkt
- ämne
- sammanfatta
- SAMMANFATTNING
- sommar
- stödja
- Ta
- tagen
- tar
- uppgift
- uppgifter
- tech
- mallar
- områden
- område
- testa
- än
- den där
- Smakämnen
- den information
- Nederländerna
- Staten
- världen
- deras
- Dem
- sedan
- därför
- Dessa
- de
- detta
- de
- Genom
- genomströmning
- tid
- Tidsföljder
- till
- i dag
- tillsammans
- trasig
- mot
- Tåg
- Förvandla
- transformator
- transformer
- Översättning
- sann
- sanningen
- Typ
- typer
- Underminera
- United
- USA
- Universell
- universitet
- till skillnad från
- uppladdning
- på
- us
- användning
- Begagnade
- med hjälp av
- Vice President
- syn
- volymer
- W
- vill
- kriget
- var
- Kolla på
- Sätt..
- we
- webb
- webbservice
- Onsdag
- välkommen
- välkomnade
- VÄL
- Vad
- när
- om
- som
- medan
- VEM
- bred
- Brett utbud
- kommer
- med
- inom
- utan
- arbetssätt
- världen
- skulle
- Om er
- Din
- zephyrnet