Utfør batch-transformasjoner med Amazon SageMaker Jumpstart Text2Text Generation store språkmodeller | Amazon Web Services

Utfør batch-transformasjoner med Amazon SageMaker Jumpstart Text2Text Generation store språkmodeller | Amazon Web Services

I dag er vi glade for å kunngjøre at du nå kan utføre batchtransformasjoner med Amazon SageMaker JumpStart store språkmodeller (LLM) for Text2Text Generation. Batch-transformasjoner er nyttige i situasjoner der svarene ikke trenger å være sanntid, og derfor kan du gjøre slutninger i batch for store datasett i bulk. For batch-transformasjon kjøres en batch-jobb som tar batch-inndata som et datasett og en forhåndsopplært modell, og gir ut prediksjoner for hvert datapunkt i datasettet. Batchtransformasjon er kostnadseffektivt fordi i motsetning til sanntidsvertsbaserte endepunkter som har vedvarende maskinvare, blir batchtransformasjonsklynger revet ned når jobben er fullført, og derfor brukes maskinvaren bare så lenge batchjobben varer.

I noen brukstilfeller kan sanntidsslutningsforespørsler grupperes i små grupper for batchbehandling for å lage sanntids- eller nesten-sanntidssvar. For eksempel, hvis du trenger å behandle en kontinuerlig strøm av data med lav latenstid og høy gjennomstrømning, vil det kreve flere ressurser å påkalle et sanntidsendepunkt for hver forespørsel separat, og det kan ta lengre tid å behandle alle forespørslene fordi behandlingen gjøres serielt . En bedre tilnærming ville være å gruppere noen av forespørslene og ringe sanntidsendepunktet i batch-inferensmodus, som behandler forespørslene dine i ett foroverpass av modellen og returnerer bulksvaret for forespørselen i sanntid eller nesten sanntid . Tidsforsinkelsen til svaret vil avhenge av hvor mange forespørsler du grupperer sammen og størrelsen på forekomstens minne, derfor kan du justere batchstørrelsen i henhold til bedriftens krav for ventetid og gjennomstrømning. Vi kaller dette batch-slutning i sanntid fordi det kombinerer konseptet med batching samtidig som det gir sanntidssvar. Med batch-inferens i sanntid kan du oppnå en balanse mellom lav ventetid og høy gjennomstrømning, slik at du kan behandle store datamengder på en rettidig og effektiv måte.

Jumpstart batch-transformasjon for Text2Text Generation-modeller lar deg sende batch-hyperparametrene gjennom miljøvariabler som ytterligere øker gjennomstrømningen og minimerer ventetiden.

JumpStart tilbyr forhåndstrente, åpen kildekode-modeller for et bredt spekter av problemtyper for å hjelpe deg med å komme i gang med maskinlæring (ML). Du kan trinnvis trene og justere disse modellene før utrulling. JumpStart tilbyr også løsningsmaler som setter opp infrastruktur for vanlige brukstilfeller, og kjørbare eksempelnotatbøker for ML med Amazon SageMaker. Du kan få tilgang til de forhåndstrente modellene, løsningsmalene og eksemplene via JumpStart-landingssiden i Amazon SageMaker Studio. Du kan også få tilgang til JumpStart-modeller ved å bruke SageMaker Python SDK.

I dette innlegget demonstrerer vi hvordan du bruker det toppmoderne ferdigtrente text2text FLAN T5-modeller fra Hugging Face for batchtransformasjon og batchslutning i sanntid.

Løsningsoversikt

Notatboken som viser batch-transformasjon av ferdigtrente Text2Text FLAN T5-modeller fra Klemme ansiktet tilgjengelig i det følgende GitHub repository. Denne notatboken bruker data fra Hugging Face cnn_dailymail datasett for en tekstoppsummeringsoppgave ved bruk av SageMaker SDK.

Følgende er de viktigste trinnene for å implementere batch-transformasjon og batch-inferens i sanntid:

  1. Sett opp forutsetninger.
  2. Velg en forhåndsopplært modell.
  3. Hent gjenstander for modellen.
  4. Spesifiser batchtransformasjonsjobbhyperparametere.
  5. Forbered data for batchtransformasjonen.
  6. Kjør batchtransformeringsjobben.
  7. Vurder oppsummeringen ved å bruke en RED (Recall-Oriented Understudy for Gisting Evaluation) score.
  8. Utfør batch-slutning i sanntid.

Sett opp forutsetninger

Før du kjører den bærbare datamaskinen, må du fullføre noen innledende oppsettstrinn. La oss sette opp SageMaker-utførelsesrollen slik at den har tillatelser til å kjøre AWS-tjenester på dine vegne:

sagemaker_session = Session()
aws_role = sagemaker_session.get_caller_identity_arn()
aws_region = boto3.Session().region_name
sess = sagemaker.Session()

Velg en forhåndsopplært modell

Vi bruker huggingface-text2text-flan-t5-large-modellen som standardmodell. Eventuelt kan du hente listen over tilgjengelige Text2Text-modeller på JumpStart og velge din foretrukne modell. Denne metoden gir en enkel måte å velge forskjellige modell-ID-er ved å bruke samme bærbare. For demonstrasjonsformål bruker vi huggingface-text2text-flan-t5-large-modellen:

model_id, model_version, = ( "huggingface-text2text-flan-t5-large", "*",
)

Hent gjenstander for modellen

Med SageMaker kan vi utføre inferens på den forhåndstrente modellen, selv uten å finjustere den først på et nytt datasett. Vi starter med å hente deploy_image_uri, deploy_source_uriog model_uri for den ferdigtrente modellen:

inference_instance_type = "ml.p3.2xlarge" # Retrieve the inference docker container uri. This is the base HuggingFace container image for the default model above.
deploy_image_uri = image_uris.retrieve(
region=None,
framework=None, # automatically inferred from model_id
image_scope="inference",
model_id=model_id,
model_version=model_version,
instance_type=inference_instance_type,
) # Retrieve the model uri.
model_uri = model_uris.retrieve(
model_id=model_id, model_version=model_version, model_scope="inference"
) #Create the SageMaker model instance
model = Model(
image_uri=deploy_image_uri,
model_data=model_uri,
role=aws_role,
predictor_cls=Predictor)

Spesifiser batchtransformasjonsjobbhyperparametere

Du kan sende et hvilket som helst undersett av hyperparametere som miljøvariabler til batch-transformeringsjobben. Du kan også sende disse hyperparametrene i en JSON-nyttelast. Imidlertid, hvis du setter miljøvariabler for hyperparametre som følgende kode viser, vil ikke de avanserte hyperparametrene fra de individuelle eksemplene i JSON-linjenes nyttelast bli brukt. Hvis du vil bruke hyperparametre fra nyttelasten, kan det være lurt å angi hyper_params_dict parameter som null i stedet.

#Specify the Batch Job Hyper Params Here, If you want to treate each example hyperparameters different please pass hyper_params_dict as None
hyper_params = {"batch_size":4, "max_length":50, "top_k": 50, "top_p": 0.95, "do_sample": True}
hyper_params_dict = {"HYPER_PARAMS":str(hyper_params)}

Forbered data for batchtransformasjon

Nå er vi klare til å laste inn cnn_dailymail datasett fra Hugging Face:

cnn_test = load_dataset('cnn_dailymail','3.0.0',split='test')

Vi går over hver dataoppføring og lager inndataene i ønsket format. Vi lager en articles.jsonl fil som en testdatafil som inneholder artikler som må oppsummeres som nyttelast. Når vi oppretter denne filen, legger vi til ledeteksten "Briefly summarize this text:" til hver testinndatarad. Hvis du vil ha forskjellige hyperparametre for hver testinndata, kan du legge til disse hyperparametrene som en del av å lage datasettet.

Vi lager highlights.jsonl som grunnsannhetsfilen som inneholder høydepunkter for hver artikkel som er lagret i testfilen articles.jsonl. Vi lagrer begge testfilene i en Amazon enkel lagringstjeneste (Amazon S3) bøtte. Se følgende kode:

#You can specify a prompt here
prompt = "Briefly summarize this text: "
#Provide the test data and the ground truth file name
test_data_file_name = "articles.jsonl"
test_reference_file_name = 'highlights.jsonl' test_articles = []
test_highlights =[] # We will go over each data entry and create the data in the input required format as described above
for id, test_entry in enumerate(cnn_test): article = test_entry['article'] highlights = test_entry['highlights'] # Create a payload like this if you want to have different hyperparameters for each test input # payload = {"id": id,"text_inputs": f"{prompt}{article}", "max_length": 100, "temperature": 0.95} # Note that if you specify hyperparameter for each payload individually, you may want to ensure that hyper_params_dict is set to None instead payload = {"id": id,"text_inputs": f"{prompt}{article}"} test_articles.append(payload) test_highlights.append({"id":id, "highlights": highlights}) with open(test_data_file_name, "w") as outfile: for entry in test_articles: outfile.write("%sn" % json.dumps(entry)) with open(test_reference_file_name, "w") as outfile: for entry in test_highlights: outfile.write("%sn" % json.dumps(entry)) # Uploading the data s3 = boto3.client("s3")
s3.upload_file(test_data_file_name, output_bucket, os.path.join(output_prefix + "/batch_input/articles.jsonl"))

Kjør batchtransformeringsjobben

Når du starter en batch-transformeringsjobb, starter SageMaker de nødvendige dataressursene for å behandle dataene, inkludert CPU- eller GPU-forekomster avhengig av den valgte forekomsttypen. Under batch-transformeringsjobben sørger og administrerer SageMaker automatisk dataressursene som kreves for å behandle dataene, inkludert forekomster, lagring og nettverksressurser. Når batch-transformeringsjobben er fullført, blir dataressursene automatisk ryddet opp av SageMaker. Dette betyr at forekomstene og lagringen som brukes under jobben, stoppes og fjernes, noe som frigjør ressurser og minimerer kostnadene. Se følgende kode:

# Creating the Batch transformer object
batch_transformer = model.transformer( instance_count=1, instance_type=inference_instance_type, output_path=s3_output_data_path, assemble_with="Line", accept="text/csv", max_payload=1, env = hyper_params_dict
) # Making the predications on the input data
batch_transformer.transform(s3_input_data_path, content_type="application/jsonlines", split_type="Line") batch_transformer.wait()

Følgende er en eksempeloppføring fra articles.jsonl testfil. Merk at posten i denne filen har en ID som samsvarer med predict.jsonl filposter som viser en oppsummert post som utdata fra Hugging Face Text2Text-modellen. På samme måte har ground truth-filen også en matchende ID for dataposten. Den samsvarende ID-en på tvers av testfilen, grunnsannhetsfilen og utdatafilen gjør det mulig å koble inndataposter med utdataposter for enkel tolkning av resultatene.

Følgende er eksempelinndataposten som er gitt for oppsummering:

{"id": 0, "text_inputs": "Briefly summarize this text: (CNN)The Palestinian Authority officially became the 123rd member of the International Criminal Court on Wednesday, a step that gives the court jurisdiction over alleged crimes in Palestinian territories. The formal accession was marked with a ceremony at The Hague, in the Netherlands, where the court is based. The Palestinians signed the ICC's founding Rome Statute in January, when they also accepted its jurisdiction over alleged crimes committed "in the occupied Palestinian territory, including East Jerusalem, since June 13, 2014." Later that month, the ICC opened a preliminary examination into the situation in Palestinian territories, paving the way for possible war crimes investigations against Israelis. As members of the court, Palestinians may be subject to counter-charges as well. Israel and the United States, neither of which is an ICC member, opposed the Palestinians' efforts to join the body. But Palestinian Foreign Minister Riad al-Malki, speaking at Wednesday's ceremony, said it was a move toward greater justice. "As Palestine formally becomes a State Party to the Rome Statute today, the world is also a step closer to ending a long era of impunity and injustice," he said, according to an ICC news release. "Indeed, today brings us closer to our shared goals of justice and peace." Judge Kuniko Ozaki, a vice president of the ICC, said acceding to the treaty was just the first step for the Palestinians. "As the Rome Statute today enters into force for the State of Palestine, Palestine acquires all the rights as well as responsibilities that come with being a State Party to the Statute. These are substantive commitments, which cannot be taken lightly," she said. Rights group Human Rights Watch welcomed the development. "Governments seeking to penalize Palestine for joining the ICC should immediately end their pressure, and countries that support universal acceptance of the court's treaty should speak out to welcome its membership," said Balkees Jarrah, international justice counsel for the group. "What's objectionable is the attempts to undermine international justice, not Palestine's decision to join a treaty to which over 100 countries around the world are members." In January, when the preliminary ICC examination was opened, Israeli Prime Minister Benjamin Netanyahu described it as an outrage, saying the court was overstepping its boundaries. The United States also said it "strongly" disagreed with the court's decision. "As we have said repeatedly, we do not believe that Palestine is a state and therefore we do not believe that it is eligible to join the ICC," the State Department said in a statement. It urged the warring sides to resolve their differences through direct negotiations. "We will continue to oppose actions against Israel at the ICC as counterproductive to the cause of peace," it said. But the ICC begs to differ with the definition of a state for its purposes and refers to the territories as "Palestine." While a preliminary examination is not a formal investigation, it allows the court to review evidence and determine whether to investigate suspects on both sides. Prosecutor Fatou Bensouda said her office would "conduct its analysis in full independence and impartiality." The war between Israel and Hamas militants in Gaza last summer left more than 2,000 people dead. The inquiry will include alleged war crimes committed since June. The International Criminal Court was set up in 2002 to prosecute genocide, crimes against humanity and war crimes. CNN's Vasco Cotovio, Kareem Khadder and Faith Karimi contributed to this report."}

Følgende er det anslåtte resultatet med oppsummering:

{'id': 0, 'generated_texts': ['The Palestinian Authority officially became a member of the International Criminal Court on Wednesday, a step that gives the court jurisdiction over alleged crimes in Palestinian territories.']}

Følgende er grunnsannhetens oppsummering for modellevalueringsformål:

{"id": 0, "highlights": "Membership gives the ICC jurisdiction over alleged crimes committed in Palestinian territories since last June .nIsrael and the United States opposed the move, which could open the door to war crimes investigations against Israelis ."}

Deretter bruker vi grunnsannheten og forutsagte utdata for modellevaluering.

Vurder modellen ved å bruke en ROUGE-score¶

RED, eller Recall-Oriented Understudy for Gisting Evaluation, er et sett med beregninger og en programvarepakke som brukes for å evaluere automatisk oppsummering og maskinoversettelse i naturlig språkbehandling. Beregningene sammenligner et automatisk produsert sammendrag eller oversettelse med et referanse (menneskeprodusert) sammendrag eller oversettelse eller et sett med referanser.

I den følgende koden kombinerer vi de forutsagte og originale sammendragene ved å slå dem sammen på fellesnøkkelen id og bruk dette til å beregne ROUGE-poengsummen:

# Downloading the predictions
s3.download_file(
output_bucket, output_prefix + "/batch_output/" + "articles.jsonl.out", "predict.jsonl"
) with open('predict.jsonl', 'r') as json_file:
json_list = list(json_file) # Creating the prediction list for the dataframe
predict_dict_list = []
for predict in json_list:
if len(predict) > 1:
predict_dict = ast.literal_eval(predict)
predict_dict_req = {"id": predict_dict["id"], "prediction": predict_dict["generated_texts"][0]}
predict_dict_list.append(predict_dict_req) # Creating the predictions dataframe
predict_df = pd.DataFrame(predict_dict_list) test_highlights_df = pd.DataFrame(test_highlights) # Combining the predict dataframe with the original summarization on id to compute the rouge score
df_merge = test_highlights_df.merge(predict_df, on="id", how="left") rouge = evaluate.load('rouge')
results = rouge.compute(predictions=list(df_merge["prediction"]),references=list(df_merge["highlights"]))
print(results)
{'rouge1': 0.32749078992945646, 'rouge2': 0.126038645005132, 'rougeL': 0.22764277967933363, 'rougeLsum': 0.28162915746368966}

Utfør batch-slutning i sanntid

Deretter viser vi deg hvordan du kjører batch-slutning i sanntid på endepunktet ved å gi inngangene som en liste. Vi bruker samme modell-ID og datasett som tidligere, bortsett fra at vi tar noen få poster fra testdatasettet og bruker dem til å påkalle et sanntidsendepunkt.

Følgende kode viser hvordan du oppretter og distribuerer et endepunkt i sanntid for satsslutning i sanntid:

from sagemaker.utils import name_from_base
endpoint_name = name_from_base(f"jumpstart-example-{model_id}")
# deploy the Model. Note that we need to pass Predictor class when we deploy model through Model class,
# for being able to run inference through the sagemaker API.
model_predictor = model.deploy( initial_instance_count=1, instance_type=inference_instance_type, predictor_cls=Predictor, endpoint_name=endpoint_name
)

Deretter forbereder vi vår input-nyttelast. Til dette bruker vi dataene som vi forberedte tidligere og trekker ut de første 10 testinngangene og legger til tekstinndataene med hyperparametre som vi ønsker å bruke. Vi leverer denne nyttelasten i sanntid invoke_endpoint. Svarnyttelasten returneres deretter som en liste over svar. Se følgende kode:

#Provide all the text inputs to the model as a list
text_inputs = [entry["text_inputs"] for entry in test_articles[0:10]] # The information about the different Parameters is provided above
payload = { "text_inputs": text_inputs, "max_length": 50, "num_return_sequences": 1, "top_k": 50, "top_p": 0.95, "do_sample": True, "batch_size": 4
} def query_endpoint_with_json_payload(encoded_json, endpoint_name):
client = boto3.client("runtime.sagemaker")
response = client.invoke_endpoint(
EndpointName=endpoint_name, ContentType="application/json", Body=encoded_json
)
return response query_response = query_endpoint_with_json_payload(
json.dumps(payload).encode("utf-8"), endpoint_name=endpoint_name
) def parse_response_multiple_texts(query_response):
model_predictions = json.loads(query_response["Body"].read())
return model_predictions generated_text_list = parse_response_multiple_texts(query_response)
print(*generated_text_list, sep='n')

Rydd opp

Etter at du har testet endepunktet, sørg for at du sletter SageMaker-slutningsendepunktet og sletter modellen for å unngå kostnader.

konklusjonen

I denne notatboken utførte vi en batch-transformasjon for å vise frem Hugging Face Text2Text Generator-modellen for oppsummeringsoppgaver. Batchtransformasjon er fordelaktig for å oppnå slutninger fra store datasett uten å kreve et vedvarende endepunkt. Vi koblet inndataposter med slutninger for å hjelpe til med resultattolkning. Vi brukte ROUGE-score for å sammenligne testdataoppsummeringen med den modellgenererte oppsummeringen.

I tillegg demonstrerte vi batch-inferens i sanntid, der du kan sende en liten batch med data til et sanntidsendepunkt for å oppnå en balanse mellom ventetid og gjennomstrømning for scenarier som streaming av inngangsdata. Sanntids batch-inferens bidrar til å øke gjennomstrømningen for sanntidsforespørsler.

Prøv batch-transformasjonen med Text2Text Generation-modeller i SageMaker i dag og gi oss tilbakemeldingen din!


Om forfatterne

Utfør batch-transformasjoner med Amazon SageMaker Jumpstart Text2Text Generation store språkmodeller | Amazon Web Services PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.Hemant Singh er en maskinlæringsingeniør med erfaring i Amazon SageMaker JumpStart og Amazon SageMaker innebygde algoritmer. Han fikk sin master fra Courant Institute of Mathematical Sciences og B.Tech fra IIT Delhi. Han har erfaring med å jobbe med et mangfold av maskinlæringsproblemer innenfor domenet naturlig språkbehandling, datasyn og tidsserieanalyse.

Utfør batch-transformasjoner med Amazon SageMaker Jumpstart Text2Text Generation store språkmodeller | Amazon Web Services PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.Rachna Chadha er en Principal Solutions Architect AI/ML i Strategic Accounts hos AWS. Rachna er en optimist som tror at etisk og ansvarlig bruk av AI kan forbedre samfunnet i fremtiden og bringe økonomisk og sosial velstand. På fritiden liker Rachna å tilbringe tid med familien, gå på tur og høre på musikk.

Utfør batch-transformasjoner med Amazon SageMaker Jumpstart Text2Text Generation store språkmodeller | Amazon Web Services PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.Dr. Ashish Khetan er en Senior Applied Scientist med Amazon SageMaker innebygde algoritmer og hjelper til med å utvikle maskinlæringsalgoritmer. Han fikk sin doktorgrad fra University of Illinois Urbana-Champaign. Han er en aktiv forsker innen maskinlæring og statistisk inferens, og har publisert mange artikler på NeurIPS, ICML, ICLR, JMLR, ACL og EMNLP-konferanser.

Tidstempel:

Mer fra AWS maskinlæring