Solcellemodeller fra Upstage er nå tilgjengelig i Amazon SageMaker JumpStart | Amazon Web Services

Solcellemodeller fra Upstage er nå tilgjengelig i Amazon SageMaker JumpStart | Amazon Web Services

Dette blogginnlegget er skrevet sammen med Hwalsuk Lee på Upstage.

I dag er vi glade for å kunngjøre at Solar grunnmodell utviklet av Upstage er nå tilgjengelig for kunder som bruker Amazon SageMaker JumpStart. Solar er en storspråklig modell (LLM) 100% forhåndstrent med Amazon SageMaker som utkonkurrerer og bruker sin kompakte størrelse og kraftige merittliste for å spesialisere seg på formålstrening, noe som gjør den allsidig på tvers av språk, domener og oppgaver.

Du kan nå bruke Solar Mini Chat og Solar Mini Chat – Quant ferdigtrente modeller innen SageMaker JumpStart. SageMaker JumpStart er maskinlæringssenteret (ML) til SageMaker som gir tilgang til grunnmodeller i tillegg til innebygde algoritmer for å hjelpe deg raskt å komme i gang med ML.

I dette innlegget går vi gjennom hvordan du oppdager og distribuerer Solar-modellen via SageMaker JumpStart.

Hva er Solar-modellen?

Solar er en kompakt og kraftig modell for engelsk og koreansk språk. Den er spesifikt finjustert for multi-turn chat formål, og demonstrerer forbedret ytelse på tvers av et bredt spekter av naturlig språkbehandlingsoppgaver.

Solar Mini Chat-modellen er basert på Solar 10.7B, med en 32-lags Lama 2 struktur, og initialisert med ferdigtrente vekter fra Mistral 7B kompatibel med Llama 2-arkitekturen. Denne finjusteringen utstyrer den med muligheten til å håndtere utvidede samtaler mer effektivt, noe som gjør den spesielt egnet for interaktive applikasjoner. Den bruker en skaleringsmetode kalt dybdeoppskalering (DUS), som består av dybdemessig skalering og fortsatt fortrening. DUS gir mulighet for en mye mer grei og effektiv forstørrelse av mindre modeller enn andre skaleringsmetoder som f.eks. blanding av eksperter (MoE).

I desember 2023 laget Solar 10.7B-modellen bølger ved å nå toppen av Åpne LLM Leaderboard av Hugging Face. Ved å bruke betydelig færre parametere leverer Solar 10.7B svar som kan sammenlignes med GPT-3.5, men er 2.5 ganger raskere. Sammen med å toppe Open LLM Leaderboard, overgår Solar 10.7B GPT-4 med spesialtrente modeller på visse domener og oppgaver.

Følgende figur illustrerer noen av disse beregningene:

Med SageMaker JumpStart kan du distribuere Solar 10.7B-baserte forhåndstrente modeller: Solar Mini Chat og en kvantisert versjon av Solar Mini Chat, optimalisert for chatteapplikasjoner på engelsk og koreansk. Solar Mini Chat-modellen gir et avansert grep om koreanske språknyanser, noe som hever brukerinteraksjoner i chatmiljøer betydelig. Den gir presise svar på brukerinndata, og sikrer klarere kommunikasjon og mer effektiv problemløsning i engelske og koreanske chatteapplikasjoner.

Kom i gang med Solar-modeller i SageMaker JumpStart

For å komme i gang med Solar-modeller kan du bruke SageMaker JumpStart, en fullstendig administrert ML-hub-tjeneste for å distribuere forhåndsbygde ML-modeller i et produksjonsklart vertsmiljø. Du kan få tilgang til Solar-modeller gjennom SageMaker JumpStart i Amazon SageMaker Studio, et nettbasert integrert utviklingsmiljø (IDE) hvor du kan få tilgang til spesialbygde verktøy for å utføre alle ML-utviklingstrinn, fra å forberede data til å bygge, trene og distribuere ML-modellene dine.

På SageMaker Studio-konsollen velger du tjuvstart i navigasjonsruten. Du kan skrive inn «solar» i søkefeltet for å finne Upstages solcellemodeller.

Figur - Søk etter solcellemodell i Amazon SageMaker JumpStart

La oss distribuere Solar Mini Chat – Quant-modellen. Velg modellkortet for å se detaljer om modellen, for eksempel lisensen, data som brukes til å trene, og hvordan du bruker modellen. Du finner også en Distribuer alternativet, som tar deg til en landingsside der du kan teste slutninger med et eksempel på nyttelast.

Figur - Hvordan distribuere Solar Mode i SageMaker JumpStart

Denne modellen krever en AWS Marketplace abonnement. Hvis du allerede har abonnert på denne modellen, og har blitt godkjent for å bruke produktet, kan du distribuere modellen direkte.

Figur - Slik abonnerer du på Solar-modellen i AWS Marketplace

Hvis du ikke har abonnert på denne modellen, velg Bli medlem!, gå til AWS Marketplace, se gjennom prisvilkårene og sluttbrukerlisensavtalen (EULA), og velg Ta i mot tilbudet.

Figur - Godta tilbud om solcellemodell i AWS Marketplace

Etter at du har abonnert på modellen, kan du distribuere modellen til et SageMaker-endepunkt ved å velge distribusjonsressursene, for eksempel forekomsttype og innledende forekomstantall. Velge Distribuer og vent et endepunkt som skal opprettes for modellslutningen. Du kan velge en ml.g5.2xlarge eksempel som et billigere alternativ for slutning med Solar-modellen.

Figur - Distribuer SageMaker Inference-endepunkt

Når SageMaker-endepunktet er opprettet, kan du teste det gjennom de forskjellige SageMaker-applikasjonsmiljøene.

Kjør koden din for Solar-modeller i SageMaker Studio JupyterLab

SageMaker Studio støtter ulike applikasjonsutviklingsmiljøer, inkludert JupyterLab, et sett med funksjoner som forsterker det fullt administrerte notebooktilbudet. Den inkluderer kjerner som starter på sekunder, en forhåndskonfigurert kjøretid med populær datavitenskap, ML-rammeverk og høyytelses privat blokklagring. For mer informasjon, se SageMaker JupyterLab.

Opprett en JupyterLab-plass i SageMaker Studio som administrerer lagrings- og dataressursene som trengs for å kjøre JupyterLab-applikasjonen.

Figur - Lag et JupyterLab i SageMaker Studio

Du kan finne koden som viser distribusjonen av Solar-modeller på SageMaker JumpStart og et eksempel på hvordan du bruker den utplasserte modellen i GitHub repo. Du kan nå distribuere modellen ved å bruke SageMaker JumpStart. Følgende kode bruker standardforekomsten ml.g5.2xlarge for endepunktet for Solar Mini Chat – Quant-modellinferens.

Solcellemodeller støtter en forespørsel/svar nyttelast som er kompatibel med OpenAIs Chat-fullføringsendepunkt. Du kan teste eksempler på chat med én sving eller flere svinger med Python.

# Get a SageMaker endpoint
sagemaker_runtime = boto3.client("sagemaker-runtime")
endpoint_name = sagemaker.utils.name_from_base(model_name)

# Multi-turn chat prompt example
input = {
    "messages": [
      {
        "role": "system",
        "content": "You are a helpful assistant."
      },
      {
        "role": "user",
        "content": "Can you provide a Python script to merge two sorted lists?"
      },
      {
        "role": "assistant",
        "content": """Sure, here is a Python script to merge two sorted lists:

                    ```python
                    def merge_lists(list1, list2):
                        return sorted(list1 + list2)
                    ```
                    """
      },
      {
        "role": "user",
        "content": "Can you provide an example of how to use this function?"
      }
    ]
}

# Get response from the model
response = sagemaker_runtime.invoke_endpoint(EndpointName=endpoint_name, ContentType='application/json', Body=json.dumps (input))
result = json.loads(response['Body'].read().decode())
print result

Du har vellykket utført en sanntidsslutning med Solar Mini Chat-modellen.

Rydd opp

Etter at du har testet endepunktet, slett SageMaker-slutningsendepunktet og slett modellen for å unngå kostnader.

Figur - Slett endepunktet til SageMaker

Du kan også kjøre følgende kode for å slette endepunktet og modusen i notatboken til SageMaker Studio JupyterLab:

# Delete the endpoint 
model.sagemaker_session.delete_endpoint(endpoint_name)
model.sagemaker_session.delete_endpoint_config(endpoint_name)

# Delete the model
model.delete_model()

For mer informasjon, se Slett endepunkter og ressurser. I tillegg kan du slå av SageMaker Studio-ressursene som ikke lenger er nødvendig.

konklusjonen

I dette innlegget viste vi deg hvordan du kommer i gang med Upstages Solar-modeller i SageMaker Studio og distribuerer modellen for inferens. Vi viste deg også hvordan du kan kjøre Python-eksempelkoden på SageMaker Studio JupyterLab.

Fordi Solar-modeller allerede er forhåndsopplært, kan de bidra til å redusere trenings- og infrastrukturkostnadene og muliggjøre tilpasning for dine generative AI-applikasjoner.

Prøv det på SageMaker JumpStart-konsoll or SageMaker Studio-konsoll! Du kan også se følgende video, Prøv "Solar" med Amazon SageMaker.

Denne veiledningen er kun til informasjonsformål. Du bør fortsatt utføre din egen uavhengige vurdering, og iverksette tiltak for å sikre at du overholder dine egne spesifikke kvalitetskontrollpraksiser og standarder, og de lokale reglene, lovene, forskriftene, lisensene og bruksvilkårene som gjelder deg, innholdet ditt, og tredjepartsmodellen det refereres til i denne veiledningen. AWS har ingen kontroll eller autoritet over tredjepartsmodellen det refereres til i denne veiledningen, og gir ingen representasjoner eller garantier for at tredjepartsmodellen er sikker, virusfri, operativ eller kompatibel med ditt produksjonsmiljø og standarder. AWS gir ingen representasjoner, garantier eller garanterer at informasjon i denne veiledningen vil resultere i et bestemt resultat eller resultat.


Om forfatterne

Foto - Channy YunChanny Yun er en hovedutvikleradvokat hos AWS, og brenner for å hjelpe utviklere med å bygge moderne applikasjoner på de nyeste AWS-tjenestene. Han er en pragmatisk utvikler og blogger i hjertet, og han elsker fellesskapsdrevet læring og deling av teknologi.

Foto - Hwalsuk LeeHwalsuk Lee er Chief Technology Officer (CTO) i Upstage. Han har jobbet for Samsung Techwin, NCSOFT og Naver som AI-forsker. Han forfølger sin doktorgrad i data- og elektroteknikk ved Korea Advanced Institute of Science and Technology (KAIST).

Foto - Brandon LeeBrandon Lee er Senior Solutions Architect i AWS, og hjelper først og fremst store utdanningsteknologikunder i offentlig sektor. Han har over 20 års erfaring med å lede applikasjonsutvikling hos globale selskaper og store selskaper.

Tidstempel:

Mer fra AWS maskinlæring