AlexaTM 20B on nyt saatavilla Amazon SageMaker JumpStart PlatoBlockchain Data Intelligencessä. Pystysuuntainen haku. Ai.

AlexaTM 20B on nyt saatavilla Amazon SageMaker JumpStartissa

Tänään ilmoitamme Amazonin uusimman tekniikan julkisesta saatavuudesta Alexa Teacher Model 20 miljardilla parametrilla  (AlexaTM 20B) läpi Amazon SageMaker JumpStart, SageMakerin koneoppimiskeskus. AlexaTM 20B on Amazonin kehittämä monikielinen laajamittainen sekvenssistä sekvenssiin (seq2seq) kielimalli. Voit käyttää AlexaTM 20B:tä monenlaisiin teollisuuden käyttötapauksiin talousraporttien yhteenvedosta asiakaspalvelun chatbottien kysymyksiin vastaamiseen. Sitä voidaan soveltaa, vaikka koulutusesimerkkejä olisi vain muutama tai ei ollenkaan. AlexaTM 20B päihittää 175 miljardia GPT-3 malli zero-shot-oppimistehtävissä, kuten SuperGLUE, ja näyttää huippuluokan suorituskyvyn monikielisissä zero-shot-tehtävissä, kuten XNLI.

Tässä viestissä annamme yleiskatsauksen AlexaTM 20B -mallin käyttöönotosta ja päätelmien suorittamisesta ohjelmallisesti JumpStart-sovellusliittymien kautta, jotka ovat saatavilla SageMaker Python SDK. Esittelemme esimerkin, kuinka voit käyttää tätä mallia kääntääksesi useiden kielten välillä, tehdäksesi yhteenvedon pitkästä tekstistä, vastataksesi kysymyksiin tietyn kontekstin perusteella ja luodaksesi tekstiä, jota ei voi erottaa ihmisen kirjoittamasta tekstistä.

AlexaTM 20B ja kontekstiopetus

Amazon Alexa AI:n Alexa Teacher Model (AlexaTM) -ohjelma on suunniteltu rakentamaan laajamittaisia, monikielisiä syväoppimismalleja (pääasiassa Transformer-pohjaisia), joiden tavoitteena on parantaa yleistämistä ja tietojen niukkuuden käsittelyä jatkotehtävissä. Laajan esikoulutuksen avulla opettajamallit voivat yleistää hyvin oppiakseen uusia tehtäviä harvasta datasta ja auttaa kehittäjiä parantamaan loppupään tehtävien suorituskykyä. AlexaTM 20B on osoittanut kilpailukykyinen suorituskyky yleisistä luonnollisen kielen käsittelyn (NLP) vertailuarvoista ja tehtävistä, kuten konekäännös, tiedon generointi ja yhteenveto.

Perusmallien, kuten AlexaTM 20B, käyttö vähentää kalliiden mallien esikoulutuksen tarvetta ja tarjoaa huippuluokan lähtökohdan tehtävämallien kehittämiseen pienemmällä vaivalla ja vähemmän tehtäväkohtaisia ​​harjoitustietoja. Yksi perusmallien keskeisistä ominaisuuksista on, että voimme opettaa mallin suorittamaan uusia tehtäviä, kuten kysymystä ja vastaamista eri kielillä, erittäin pienillä määrillä syöttöesimerkkejä, eikä hienosäätöä tai gradienttipäivityksiä tarvita. Tämä tunnetaan nimellä kontekstissa oppimista. Vain muutama esimerkki uudesta tehtävästä on annettu päättelyn kontekstina, joten AlexaTM 20B -malli voi siirtää tietoa siitä, mitä on opittu laajamittaisessa esikoulutuksessa, jopa kielten välillä. Tätä kutsutaan muutaman laukauksen oppiminen. Joissakin tapauksissa malli voi toimia hyvin ilman harjoitusdataa, vain selittämällä, mitä pitäisi ennustaa. Tätä kutsutaan nolla-ammuttu oppiminen. Oletetaan esimerkiksi, että käytämme AlexaTM 20B:tä kertaluonteiseen luonnollisen kielen luomiseen. Mallille välitetty syöte on koulutusesimerkki attribuutti-arvo-parien muodossa ja sitä vastaava tulostekstikertomus. Testiesimerkki liitetään sitten muodostamaan täydellinen syöttökehote, kuten seuraavassa kuvassa näkyy.

Jos haluat lisätietoja mallista, tutustu 20B-parametrinen Alexa-malli asettaa uudet pisteet muutaman laukauksen oppimiseen tai alkuperäinen paperi.

AlexaTM 20B:n käyttö on saatavilla ei-kaupalliseen käyttöön, ja se kattaa sen Alexa Teacher Model License -sopimus.

Ratkaisun yleiskatsaus

Seuraavat osiot tarjoavat vaiheittaisen esittelyn mallin käyttöönotosta, päätelmien suorittamisesta ja konteksti-oppimisesta pienten oppimistehtävien ratkaisemiseksi.

Huomaa, että seuraava osa sisältää koodinpätkät; koko koodi kaikkine tämän esittelyn vaiheineen on saatavilla mukana tulevassa muistikirjassa: Kontekstioppiminen AlexaTM 20B:llä SageMaker JumpStartissa.

Ota käyttöön malli

Jos haluat käyttää suurta kielimallia SageMakerissa, tarvitset mallikohtaisen päättelykomentosarjan, joka sisältää vaiheita, kuten mallin lataaminen, rinnastaminen ja paljon muuta. Sinun on myös luotava päästä päähän -testejä komentosarjoille, mallille ja halutuille ilmentymätyypeille varmistaaksesi, että kaikki kolme toimivat yhdessä. JumpStart poistaa tämän vaivan tarjoamalla käyttövalmiita komentosarjoja, jotka on testattu vankasti.

SageMaker antaa sinulle mahdollisuuden käyttää Docker-säiliöitä laajasti harjoittelua ja päätelmiä varten. JumpStart käyttää näitä saatavilla olevia kehyskohtaisia SageMaker Deep Learning -säiliöt (DLC:t). Aloitamme hakemalla optimoidun DLC:n (deploy_image_uri) käyttämällä model_id. Sitten haetaan model_uri joka sisältää malliparametrit sekä päätelmien käsittelykomentosarjat ja kaikki niihin liittyvät riippuvuudet. Seuraavaksi luomme a malliesimerkki SageMakerissa ja ota se käyttöön reaaliaikaiseen päätepisteeseen. Katso seuraava koodi:

# model_version="*" fetches the latest version of the model
model_id, model_version = "pytorch-textgeneration1-alexa20b", "*"

instance_type = "ml.g4dn.12xlarge"

# Retrieve the inference docker container uri
deploy_image_uri = image_uris.retrieve(
    region=None,
    framework=None,  # automatically inferred from model_id
    image_scope="inference",
    model_id=model_id,
    model_version=model_version,
    instance_type=inference_instance_type,
)

# Retrieve the model uri. This includes the model parameters, all dependencies and scripts for model loading, inference handling etc.
 model_uri = model_uris.retrieve(
 model_id=model_id, 
 model_version=model_version, 
 model_scope="inference")

AlexaTM 20B:n käyttöönotto vaatii grafiikkasuorittimen tukeman ilmentymän, jossa on vähintään 50 Gt CPU-muistia ja vähintään 42 Gt GPU-muistia. SageMaker tarjoaa monia tällaisia ​​tapauksia, jotka tukevat reaaliaikaista päättelyä. Testasimme tätä ratkaisua kolmessa tapauksessa: ml.g4dn.12xlarge, ml.p3.8xlarge, ml.p3.16xlarge. Katso seuraava koodi:

env = {
        "SAGEMAKER_MODEL_SERVER_TIMEOUT": str(3600),
        "MODEL_CACHE_ROOT": "/opt/ml/model",
        "SAGEMAKER_ENV": "1",
        "SAGEMAKER_SUBMIT_DIRECTORY":"/opt/ml/model/code/",
        "SAGEMAKER_PROGRAM": "inference.py",
        "SAGEMAKER_MODEL_SERVER_WORKERS": "1", # One worker for the endpoint rather than one worker per GPU by default
        "TS_DEFAULT_WORKERS_PER_MODEL":"1" # 1 TS worker which allocates all memory to the single master worker.
    }
    
#Create the SageMaker model instance. Note that we need to pass Predictor class when we deploy model through Model class,
#for being able to run inference through the sagemaker API.
model = Model(
    image_uri=deploy_image_uri,
    model_data=model_uri,
    role=aws_role,
    predictor_cls=Predictor,
    name=endpoint_name,
    env=env
)

Seuraavaksi otamme mallin käyttöön reaaliaikaiseen SageMaker-päätepisteeseen:

# deploy the Model.
model_predictor = model.deploy(
    initial_instance_count=1,
    instance_type=instance_type,
    endpoint_name=endpoint_name,
    volume_size= volume_size, # Specify the size of the Amazon EBS volume in GBs.
    model_data_download_timeout = 3600, # Specify the model download timeout in seconds.
    container_startup_health_check_timeout = 3600, # Specify the health checkup timeout in seconds
)

AlexaTM 20B vaatii 40 Gt levytilaa johtopäätössäiliössä. ml.g4dn.12xlarge ilmentymä täyttää tämän vaatimuksen. Esimerkiksi tyypeille ml.p3.8xlarge ja ml.p3.16xlarge liitetään an Amazonin elastisten lohkojen myymälä (Amazon EBS) -tilavuus suuren mallikoon käsittelemiseksi. Siksi asetimme volume_size = None kun otetaan käyttöön ml.g4dn.12xlarge and volume_size=256 kun käytössä on ml.p3.8xlarge tai ml.p3.16xlarge.

Mallin käyttöönotto voi kestää jopa 10 minuuttia. Kun malli on otettu käyttöön, voimme saada siitä ennusteita reaaliajassa!

Suorita johtopäätös

AlexaTM 20B on tekstinmuodostusmalli, joka osittaisen sekvenssin (lauseen tai tekstinpalan) perusteella luo seuraavan sanajoukon. Seuraava koodinpätkä antaa sinulle välähdyksen siitä, kuinka voit kysyä käyttöönottamamme päätepisteen ja jäsentää tulosteet automaattista täydennystehtävää varten. Käytämme UTF-8-muotoon koodattua JSON-sanakirjaa lähettääksemme pyyntöjä käyttöön otettuun malliin. Päätepisteen vastaus on JSON-objekti, joka sisältää luettelon luoduista teksteistä.

def query(model_predictor, text, kwargs = None):
    """Query the model predictor."""

    payload = {"text_inputs": text}
    if kwargs is not None:
        payload.update(kwargs)
        
    encoded_inp = json.dumps(payload).encode("utf-8")

    query_response = model_predictor.predict(
        encoded_inp,
        {
            "ContentType": "application/json",
            "Accept": "application/json",
        },
    )
    return query_response
 
def parse_response(query_response):
    """Parse response and return the generated texts."""

    model_predictions = json.loads(query_response)
    generated_texts = model_predictions["generated_texts"]
    return generated_texts

Seuraavaksi teemme kyselyn päätepisteestä ja jäsennämme vastauksen esimerkkisyöttötekstillä:

# text can be a single string or a list of strings
text = “[CLM]My name is Lewis and I like to"
kwargs = {"num_beams": 5, "no_repeat_ngram_size": 2, “max_length”: 50}
query_response = query_endpoint(model_predictor, text, kwargs)
generated_texts = parse_response(query_response)

Generated_texts: “travel and meet new people. I have been to many countries and I like to meet people from all over the world. If you are interested in meeting me, please feel free to send me a message and we can arrange a meeting.”

AlexaTM 20B tukee tällä hetkellä 10 tekstin luontiparametria päättelyn aikana: max_length, num_return_sequences, num_beams, no_repeat_ngram_size, temperature, early_stopping, do_sample, top_k, top_pja seed. Katso tarkemmat tiedot kunkin parametrin kelvollisista arvoista ja niiden vaikutuksesta lähtöön mukana tulevasta muistikirjasta: Kontekstioppiminen AlexaTM 20B:llä SageMaker JumpStartissa.

Kontekstin sisäinen oppiminen

Kontekstin sisäisellä oppimisella tarkoitetaan seuraavaa: tarjoamme kielimallille kehotteen, joka koostuu tehtävää esittelevistä opetuspanos-tulospareista. Liitämme kehotteeseen testisyötteen ja annamme kielimallin tehdä ennusteita ehdottamalla kehotteen ja ennustamalla seuraavat merkit tai sanat. Tämä on erittäin tehokas tekniikka muutamien pikaoppimisongelmien ratkaisemiseen, jossa opimme tehtävän muutamasta harjoitusnäytteestä.

Seuraavaksi näytämme, kuinka voit käyttää AlexaTM 20B:tä useisiin 1- ja zero-shot-tehtäviin kontekstin sisäisen oppimisen kautta. Toisin kuin aikaisemmissa sekvenssistä sekvenssiin -malleissa, AlexaTM 20B on koulutettu kausaalisen kielen mallintamiseen kohinanpoiston lisäksi, mikä tekee siitä hyvän mallin kontekstin sisäiseen oppimiseen.

Yhden otoksen tekstiyhteenveto

Tekstin yhteenveto on tehtävä lyhentää tietoja ja luoda tiivistelmä, joka edustaa alkuperäisen tekstin tärkeimpiä tietoja. Yhden otoksen tekstin yhteenveto viittaa asetukseen, jossa opimme tiivistämään tekstin yhden harjoitusnäytteen perusteella. Seuraava koodi on esimerkki tekstin yhteenvedosta XSUM-tietojoukko:

train_article = "The announcement ends months of uncertainty for Cornish Language Partnership staff whose contracts had been due to end. Local government minister Andrew Stunnell said the three-year funding package for the service would help make sure the language survived. But he warned that long term funding should come from Cornwall. He said it was "important to make sure the Cornish were given the opportunity to put down sound foundations." "In the longer term support for the Cornish language is going to be something which is going to have to be based in Cornwall and will not come from London," he added. The Cornish Language Partnership's, Jennifer Lowe, said: "We can now plan for the future thanks to the funding." The United Nations recently upgraded the status of the Cornish language from "extinct" to "critically endangered". It is thought fewer than 500 people worldwide are fluent in the language.""
                
train_summary = "The government is spending nearly £400,000 to help save the Cornish language."

test_article = "Torrents of water brought down a suspended ceiling and damaged stock "
                "in the Victoria Centre store at about 22:40 BST on Tuesday. Managers "
                "had hoped for a weekend reopening but it is now closed "until "
                "further notice". Staff have been helping with the clean-up "
                "operation. Water poured through from a rooftop room, leaving the "
                "top floor under three inches of water and stock "significantly" "
                "damaged. A spokeswoman said: "Our teams are working around the "
                "clock to get the shop open as quickly as possible and we're sorry "
                "for the inconvenience this has caused to our customers.""

Käytämme seuraavaa kehotetta yhteenvedon tekemiseen, kun tarjotaan vain yksi koulutusnäyte. Mallista luotu teksti tulkitaan testiartikkelin ennustetuksi yhteenvedoksi.

AlexaTM 20B on nyt saatavilla Amazon SageMaker JumpStart PlatoBlockchain Data Intelligencessä. Pystysuuntainen haku. Ai.

Tuotos on seuraava:

AlexaTM 20B output: 'The top floor of a London department store has been flooded.'

Yhden laukauksen luonnollisen kielen sukupolvi

Luonnollisen kielen sukupolven tehtävänä on tuottaa tekstin kertomuksia syötetyn tekstin perusteella. Seuraava esimerkki näyttää harjoitusnäytteen E2E-tietojoukko:

train_inp = "name[The Punter], food[Indian], priceRange[cheap]"
train_out = "The Punter provides Indian food in the cheap price range."

test_inp = "name[Blue Spice], eatType[coffee shop], area"

Käytämme seuraavaa kehotetta luonnollisen kielen luomiseen, kun tarjotaan vain yksi harjoitusnäyte (1-shot). Mallista luotu teksti tulkitaan testisyötteen ennustetuksi tekstiksi (test_inp).

AlexaTM 20B on nyt saatavilla Amazon SageMaker JumpStart PlatoBlockchain Data Intelligencessä. Pystysuuntainen haku. Ai.

Tuotos on seuraava:

AlexaTM 20B output: 'Blue Spice is a coffee shop in the city centre. '

Yhden laukauksen konekäännös

Konekäännös on tekstin kääntäminen kielestä toiseen. Seuraava esimerkki näyttää harjoitusnäytteen WMT19-tietojoukko jossa meidän on käännettävä saksasta englanniksi:

train_inp = "Das Parlament erhebt sich zu einer Schweigeminute."
train_out = "The House rose and observed a minute' s silence"

test_inp = "Kleingärtner bewirtschaften den einstigen Grund von Bauern."

Käytämme seuraavaa kehotetta konekääntämiseen, kun tarjotaan vain yksi harjoitusnäyte (1-shot). Mallista luotu teksti tulkitaan testisyötteen käännökseksi (test_inp).

AlexaTM 20B on nyt saatavilla Amazon SageMaker JumpStart PlatoBlockchain Data Intelligencessä. Pystysuuntainen haku. Ai.

Tuotos on seuraava:

AlexaTM 20B translation: 'Gardeners cultivate the former land of farmers.'

Nolla-shot poimivan kysymyksen vastaus

Poimiva kysymykseen vastaaminen on tehtävä löytää vastaus kysymykseen kontekstikappaleesta. Seuraavassa on esimerkki kontekstista ja kysymyksestä SQuAD v2 -tietojoukko:

test_context = "The Normans (Norman: Nourmands; French: Normands; Latin: Normanni) were the people who in the 10th and 11th centuries gave their name to Normandy, a region in France. They were descended from Norse ("Norman" comes from "Norseman") raiders and pirates from Denmark, Iceland and Norway who, under their leader Rollo, agreed to swear fealty to King Charles III of West Francia. Through generations of assimilation and mixing with the native Frankish and Roman-Gaulish populations, their descendants would gradually merge with the Carolingian-based cultures of West Francia. The distinct cultural and ethnic identity of the Normans emerged initially in the first half of the 10th century, and it continued to evolve over the succeeding centuries."
test_question = "In what country is Normandy located?"

Huomaa, että meillä ei ole harjoitusnäytteitä tehtäväämme varten. Sen sijaan luomme tyhjän kysymyksen kehotteen viimeisestä sanasta test_context (nukke-laukaus). Siksi vastaamme itse asiassa tyhjentävästi kysymyksiin.

Käytämme seuraavaa kehotetta poimivaan kysymykseen vastaamiseen, kun koulutusnäytettä ei toimiteta. Mallista luotu teksti tulkitaan vastaukseksi testikysymykseen.

AlexaTM 20B on nyt saatavilla Amazon SageMaker JumpStart PlatoBlockchain Data Intelligencessä. Pystysuuntainen haku. Ai.

Tuotos on seuraava:

AlexaTM 20B output: 'France'

Nopea suunnittelu

Nopea suunnittelu voi joskus olla taidetta. Pienetkin muutokset kehotemalliin voivat johtaa merkittäviin muutoksiin mallin suorituskyvyssä tietyssä tehtävässä. Seuraavassa on muutamia neuvoja hyvien kehotepohjien kirjoittamiseen. Ensinnäkin on tärkeää muistaa, että malli on koulutettu oppimaan todellisten lauseiden rakennetta (kausaalikielimallinnus). Siksi on parasta varmistaa, että kehotemallisi on kieliopillisesti ja rakenteellisesti oikea luonnollisella kielellä. Toiseksi tämä malli hyötyy valelaukauksista, jotka auttavat opettamaan sille vastauksessa odotetun rakenteen, kuten yllä on osoitettu. Kolmanneksi on aina suositeltavaa tutkia tehtävien suorituskykyä useissa ehdokaskehotemalleissa. Pikalähde ja Luonnolliset ohjeet ovat kaksi avoimen lähdekoodin viitekehystä kehotemallien standardointiin, ja ne tarjoavat erilaisia ​​esimerkkikehotteita, joita käytetään olemassa oleviin mallinnustehtäviin. Lisäksi, liite B AlexaTM 20B paperi tarjoaa kehotemalleja, joita käytetään paperissa esitettyjen tulosten luomiseen. On kasvava alakenttä, joka on omistettu tehtävän parhaiden kehotteiden automaattiselle luomiselle ja oppimiselle, mukaan lukien sekä luonnolliset kielet että jatkuvat kehotteet. Tämä ei kuulu tämän opetusohjelman piiriin.

Yhteenveto

Tässä viestissä näytimme, kuinka AlexaTM 20B -malli otetaan käyttöön SageMaker-päätepisteessä ja suoritetaan päättely. Voit käyttää AlexaTM 20B -mallia konteksti-oppimiseen erilaisissa muutaman otoksen oppimistehtävissä. Lisätietoja AlexaTM 20B:stä on osoitteessa 20B-parametrinen Alexa-malli asettaa uudet pisteet muutaman laukauksen oppimiseen tai alkuperäinen paperi.

Kirjoittajat haluavat kiittää Maciej Rudnickin, Jakub Debskin, Ashish Khetanin, Anastasiia Dubininan, Vitaliy Korolevin, Karl Albertsenin, Saleh Soltanin ja Mariusz Momotkon teknisestä panoksesta tämän julkaisun mahdollistamisessa.


Tietoja JumpStartista

JumpStart on Amazon SageMakerin koneoppimiskeskus (ML), joka tarjoaa yli 350 valmiiksi koulutettua mallia, sisäänrakennettuja algoritmeja ja valmiita ratkaisumalleja, joiden avulla pääset nopeasti alkuun ML:n kanssa. JumpStart isännöi huippuluokan malleja suosituista mallikeskittymistä, kuten TensorFlow, PyTorch, Hugging Face ja MXNet, jotka tukevat suosittuja ML-tehtäviä, kuten objektien havaitsemista, tekstin luokittelua ja tekstin luomista. ML-tutkijayhteisö on tehnyt paljon vaivaa saattaakseen suurimman osan äskettäin kehitetyistä malleista julkisesti saataville. JumpStart pyrkii auttamaan sinua löytämään oikeat ML-mallit ja -algoritmit ja aloittamaan mallien rakentamisen välittömästi. Erityisesti JumpStart tarjoaa seuraavat edut:

  • Helppo pääsy käyttöliittymän ja SDK:n avulla – Voit käyttää JumpStartin malleja ja algoritmeja ohjelmallisesti käyttämällä SageMaker Python SDK:ta tai Amazon SageMaker Studion JumpStart-käyttöliittymän kautta. Tällä hetkellä AlexaTM 20B on käytettävissä vain SageMaker Python SDK:n kautta.
  • SageMakerin sisäänrakennetut algoritmit – JumpStart tarjoaa yli 350 sisäänrakennettua algoritmia ja esiopetettua mallia sekä vastaavat harjoitusskriptit (jos tuetut), päättelykomentosarjat ja esimerkkimuistikirjat. Skriptit on optimoitu jokaiselle kehykselle ja tehtävälle, ja ne tarjoavat ominaisuuksia, kuten GPU-tuen, automaattisen mallin virityksen ja asteittaisen harjoittelun. Skriptit testataan myös SageMaker-instanssien ja -ominaisuuksien suhteen, jotta et törmää yhteensopivuusongelmiin.
  • Valmiiksi rakennetut ratkaisut – JumpStart tarjoaa joukon 23 ratkaisua yleisiin ML-käyttötapauksiin, kuten kysynnän ennustamiseen sekä teollisuus- ja taloussovelluksiin, jotka voit ottaa käyttöön vain muutamalla napsautuksella. Ratkaisut ovat päästä päähän ML-sovelluksia, jotka yhdistävät erilaisia ​​AWS-palveluita tietyn yrityskäyttötilanteen ratkaisemiseksi. He käyttävät AWS CloudFormation -malleja ja viitearkkitehtuureja nopeaan käyttöönottoon, mikä tarkoittaa, että ne ovat täysin muokattavissa.
  • Tuki – SageMaker tarjoaa monenlaista tukea, kuten päivitettyjen versioiden ylläpitämisen, kun uusia SageMaker-ominaisuuksia tai Deep Learning Container -versioita julkaistaan, ja dokumenttien luomista JumpStart-sisällön käyttämisestä SageMaker-ympäristössä.

Saat lisätietoja JumpStartista ja siitä, kuinka voit käyttää avoimen lähdekoodin esikoulutettuja malleja moniin muihin ML-tehtäviin, tutustu seuraavaan AWS re:Invent 2020 -video.


Tietoja Tekijät

AlexaTM 20B on nyt saatavilla Amazon SageMaker JumpStart PlatoBlockchain Data Intelligencessä. Pystysuuntainen haku. Ai.Tohtori Vivek Madan on soveltuva tutkija Amazon SageMaker JumpStart -tiimin kanssa. Hän sai tohtorin tutkinnon Illinoisin yliopistosta Urbana-Champaignissa ja oli tutkijatohtorina Georgia Techissä. Hän on aktiivinen koneoppimisen ja algoritmisuunnittelun tutkija ja julkaissut julkaisuja EMNLP-, ICLR-, COLT-, FOCS- ja SODA-konferensseissa.

AlexaTM 20B on nyt saatavilla Amazon SageMaker JumpStart PlatoBlockchain Data Intelligencessä. Pystysuuntainen haku. Ai.Jack FitzGerald on vanhempi sovellettu tutkija Alexa AI:ssä, jossa hän keskittyy tällä hetkellä laajan kielen mallintamiseen, monikielisen tekstin mallintamiseen ja koneoppimistoimintoihin.

AlexaTM 20B on nyt saatavilla Amazon SageMaker JumpStart PlatoBlockchain Data Intelligencessä. Pystysuuntainen haku. Ai.João Moura on AI/ML Specialist Solutions -arkkitehti Amazon Web Servicesissä. Hän keskittyy enimmäkseen NLP-käyttötapauksiin ja auttaa asiakkaita optimoimaan syvän oppimismallin koulutusta ja käyttöönottoa. Hän on myös aktiivinen matalan koodin ML-ratkaisujen ja ML-spesifisten laitteistojen kannattaja.

AlexaTM 20B on nyt saatavilla Amazon SageMaker JumpStart PlatoBlockchain Data Intelligencessä. Pystysuuntainen haku. Ai. Kesäkuu voitti on tuotepäällikkö, jolla on SageMaker JumpStart ja sisäänrakennetut algoritmit. Hän keskittyy tekemään ML-sisällöt helposti löydettävissä ja käyttökelpoisiksi SageMaker-asiakkaille.

AlexaTM 20B on nyt saatavilla Amazon SageMaker JumpStart PlatoBlockchain Data Intelligencessä. Pystysuuntainen haku. Ai.Pulkit Kapur on Alexa Teacher Model -ohjelman tuotepäällikkö Alexa AI:n kanssa, ja se keskittyy Alexan multitask-multimodaalisten perusmallien yleiseen älykkyyteen ja sovelluksiin.

Aikaleima:

Lisää aiheesta AWS-koneoppiminen