AlexaTM 20B kini tersedia di Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. Pencarian Vertikal. Ai.

AlexaTM 20B kini tersedia di Amazon SageMaker JumpStart

Hari ini, kami mengumumkan ketersediaan publik Amazon yang canggih Model Guru Alexa dengan 20 miliar parameter  (AlexaTM 20B) melalui Mulai Lompatan Amazon SageMaker, pusat pembelajaran mesin SageMaker. AlexaTM 20B adalah model bahasa sequence-to-sequence (seq2seq) skala besar multibahasa yang dikembangkan oleh Amazon. Anda dapat menggunakan AlexaTM 20B untuk berbagai kasus penggunaan industri, mulai dari meringkas laporan keuangan hingga menjawab pertanyaan untuk chatbot layanan pelanggan. Itu dapat diterapkan bahkan ketika hanya ada sedikit contoh pelatihan yang tersedia, atau bahkan tidak ada sama sekali. AlexaTM 20B mengungguli 175 miliar Model GPT-3 pada tugas pembelajaran zero-shot seperti SuperGLUE dan menunjukkan performa canggih untuk tugas zero-shot multibahasa seperti XNLI.

Dalam postingan ini, kami memberikan ikhtisar tentang cara menerapkan dan menjalankan inferensi dengan model AlexaTM 20B secara terprogram melalui JumpStart API, tersedia di SDK Python SageMaker. Kami mencontohkan bagaimana Anda dapat menggunakan model ini untuk menerjemahkan antara beberapa bahasa, meringkas teks bentuk panjang, menjawab pertanyaan berdasarkan konteks tertentu, dan menghasilkan teks yang tampaknya tidak dapat dibedakan dari teks tulisan manusia.

AlexaTM 20B dan pembelajaran dalam konteks

Program Alexa Teacher Model (AlexaTM) oleh Amazon Alexa AI dirancang untuk membangun model pembelajaran mendalam multibahasa skala besar (terutama berbasis Transformer), yang bertujuan untuk meningkatkan generalisasi dan menangani kelangkaan data untuk tugas hilir. Dengan pra-pelatihan skala besar, model guru dapat menggeneralisasi dengan baik untuk mempelajari tugas baru dari data yang jarang dan membantu pengembang meningkatkan kinerja pada tugas hilir. AlexaTM 20B telah menunjukkan kinerja kompetitif pada tolok ukur dan tugas pemrosesan bahasa alami (NLP) umum, seperti terjemahan mesin, pembuatan data, dan peringkasan.

Menggunakan model dasar seperti AlexaTM 20B mengurangi kebutuhan pra-pelatihan model yang mahal dan memberikan titik awal yang canggih untuk mengembangkan model tugas dengan lebih sedikit usaha dan lebih sedikit data pelatihan khusus tugas. Salah satu kemampuan utama model dasar adalah kita dapat mengajarkan model untuk melakukan tugas-tugas baru seperti pertanyaan dan jawaban dalam bahasa yang berbeda, dengan jumlah contoh input yang sangat sedikit dan tidak diperlukan penyempurnaan atau pembaruan gradien. Ini dikenal sebagai pembelajaran dalam konteks. Dengan hanya beberapa contoh tugas baru yang disediakan sebagai konteks untuk inferensi, model AlexaTM 20B dapat mentransfer pengetahuan dari apa yang telah dipelajari selama pra-pelatihan berskala besar, bahkan lintas bahasa. Ini disebut pembelajaran dengan beberapa pukulan. Dalam beberapa kasus, model dapat bekerja dengan baik tanpa data pelatihan sama sekali, hanya dengan penjelasan tentang apa yang harus diprediksi. Ini disebut pembelajaran zero-shot. Sebagai contoh, katakanlah kita menggunakan AlexaTM 20B untuk pembuatan bahasa alami sekali pakai. Input yang diteruskan ke model adalah contoh pelatihan dalam bentuk pasangan atribut-nilai, beserta output teks naratif yang sesuai. Contoh pengujian kemudian ditambahkan untuk membentuk perintah input lengkap, seperti yang ditunjukkan pada gambar berikut.

Untuk mempelajari lebih lanjut tentang model, lihat Model Alexa parameter 20B menetapkan nilai baru dalam pembelajaran beberapa langkah atau asli kertas.

Penggunaan AlexaTM 20B tersedia untuk penggunaan non-komersial dan tercakup dalam Perjanjian Lisensi Model Guru Alexa.

Ikhtisar solusi

Bagian berikut menyediakan demo langkah demi langkah tentang cara menerapkan model, menjalankan inferensi, dan melakukan pembelajaran dalam konteks untuk menyelesaikan beberapa tugas pembelajaran.

Perhatikan bahwa bagian berikut berisi cuplikan kode; kode lengkap dengan semua langkah dalam demo ini tersedia di notebook terlampir: Pembelajaran dalam konteks dengan AlexaTM 20B di SageMaker JumpStart.

Menyebarkan model

Untuk menggunakan model bahasa besar di SageMaker, Anda memerlukan skrip inferensi khusus untuk model tersebut, yang mencakup langkah-langkah seperti pemuatan model, paralelisasi, dan lainnya. Anda juga perlu membuat pengujian end-to-end untuk skrip, model, dan jenis instans yang diinginkan untuk memvalidasi bahwa ketiganya dapat bekerja bersama. JumpStart menghilangkan upaya ini dengan menyediakan skrip siap pakai yang telah diuji dengan kuat.

SageMaker memberi Anda kemampuan untuk menjalankan kontainer Docker secara ekstensif untuk pelatihan dan inferensi. JumpStart menggunakan framework-spesifik yang tersedia ini Wadah Pembelajaran Mendalam SageMaker (DLC). Kami mulai dengan mengambil DLC yang dioptimalkan (deploy_image_uri) menggunakan model_id. Kemudian kami mengambil model_uri berisi parameter model, bersama dengan skrip penanganan inferensi dan semua dependensi terkait. Selanjutnya, kita membuat contoh model di SageMaker dan menerapkannya ke titik akhir waktu nyata. Lihat kode berikut:

# model_version="*" fetches the latest version of the model
model_id, model_version = "pytorch-textgeneration1-alexa20b", "*"

instance_type = "ml.g4dn.12xlarge"

# Retrieve the inference docker container uri
deploy_image_uri = image_uris.retrieve(
    region=None,
    framework=None,  # automatically inferred from model_id
    image_scope="inference",
    model_id=model_id,
    model_version=model_version,
    instance_type=inference_instance_type,
)

# Retrieve the model uri. This includes the model parameters, all dependencies and scripts for model loading, inference handling etc.
 model_uri = model_uris.retrieve(
 model_id=model_id, 
 model_version=model_version, 
 model_scope="inference")

Menerapkan AlexaTM 20B memerlukan instans yang didukung GPU dengan setidaknya 50 GB memori CPU dan setidaknya 42 GB memori GPU. SageMaker menyediakan banyak contoh yang mendukung inferensi real-time. Kami menguji solusi ini pada tiga contoh: ml.g4dn.12xlarge, ml.p3.8xlarge, ml.p3.16xlarge. Lihat kode berikut:

env = {
        "SAGEMAKER_MODEL_SERVER_TIMEOUT": str(3600),
        "MODEL_CACHE_ROOT": "/opt/ml/model",
        "SAGEMAKER_ENV": "1",
        "SAGEMAKER_SUBMIT_DIRECTORY":"/opt/ml/model/code/",
        "SAGEMAKER_PROGRAM": "inference.py",
        "SAGEMAKER_MODEL_SERVER_WORKERS": "1", # One worker for the endpoint rather than one worker per GPU by default
        "TS_DEFAULT_WORKERS_PER_MODEL":"1" # 1 TS worker which allocates all memory to the single master worker.
    }
    
#Create the SageMaker model instance. Note that we need to pass Predictor class when we deploy model through Model class,
#for being able to run inference through the sagemaker API.
model = Model(
    image_uri=deploy_image_uri,
    model_data=model_uri,
    role=aws_role,
    predictor_cls=Predictor,
    name=endpoint_name,
    env=env
)

Selanjutnya, kami menerapkan model ke titik akhir waktu-nyata SageMaker:

# deploy the Model.
model_predictor = model.deploy(
    initial_instance_count=1,
    instance_type=instance_type,
    endpoint_name=endpoint_name,
    volume_size= volume_size, # Specify the size of the Amazon EBS volume in GBs.
    model_data_download_timeout = 3600, # Specify the model download timeout in seconds.
    container_startup_health_check_timeout = 3600, # Specify the health checkup timeout in seconds
)

AlexaTM 20B membutuhkan 40 GB ruang disk dalam wadah inferensi. Instance ml.g4dn.12xlarge memenuhi persyaratan ini. Misal tipe ml.p3.8xlarge dan ml.p3.16xlarge kami lampirkan an Toko Blok Elastis Amazon (Amazon EBS) volume untuk menangani ukuran model yang besar. Oleh karena itu, kami menetapkan volume_size = None saat men-deploy di ml.g4dn.12xlarge dan volume_size=256 saat men-deploy di ml.p3.8xlarge atau ml.p3.16xlarge.

Menerapkan model dapat memakan waktu hingga 10 menit. Setelah model di-deploy, kita bisa mendapatkan prediksi darinya secara real time!

Jalankan inferensi

AlexaTM 20B adalah model pembuatan teks yang, dengan urutan parsial (kalimat atau potongan teks), menghasilkan rangkaian kata berikutnya. Cuplikan kode berikut memberi Anda gambaran sekilas tentang cara mengkueri titik akhir yang kami terapkan dan mengurai output untuk tugas penyelesaian otomatis. Untuk mengirim permintaan ke model yang diterapkan, kami menggunakan kamus JSON yang dikodekan dalam format UTF-8. Respons titik akhir adalah objek JSON yang berisi daftar teks yang dihasilkan.

def query(model_predictor, text, kwargs = None):
    """Query the model predictor."""

    payload = {"text_inputs": text}
    if kwargs is not None:
        payload.update(kwargs)
        
    encoded_inp = json.dumps(payload).encode("utf-8")

    query_response = model_predictor.predict(
        encoded_inp,
        {
            "ContentType": "application/json",
            "Accept": "application/json",
        },
    )
    return query_response
 
def parse_response(query_response):
    """Parse response and return the generated texts."""

    model_predictions = json.loads(query_response)
    generated_texts = model_predictions["generated_texts"]
    return generated_texts

Selanjutnya, kami mengkueri titik akhir dan mem-parsing respons pada contoh teks masukan:

# text can be a single string or a list of strings
text = โ€œ[CLM]My name is Lewis and I like to"
kwargs = {"num_beams": 5, "no_repeat_ngram_size": 2, โ€œmax_lengthโ€: 50}
query_response = query_endpoint(model_predictor, text, kwargs)
generated_texts = parse_response(query_response)

Generated_texts: โ€œtravel and meet new people. I have been to many countries and I like to meet people from all over the world. If you are interested in meeting me, please feel free to send me a message and we can arrange a meeting.โ€

AlexaTM 20B saat ini mendukung 10 parameter pembuatan teks selama inferensi: max_length, num_return_sequences, num_beams, no_repeat_ngram_size, temperature, early_stopping, do_sample, top_k, top_p, dan seed. Untuk informasi mendetail tentang nilai yang valid untuk setiap parameter dan pengaruhnya terhadap keluaran, lihat buku catatan terlampir: Pembelajaran dalam konteks dengan AlexaTM 20B di SageMaker JumpStart.

Pembelajaran dalam konteks

Pembelajaran dalam konteks mengacu pada hal-hal berikut: kami menyediakan model bahasa dengan prompt, yang terdiri dari pasangan masukan-keluaran pelatihan yang mendemonstrasikan tugas. Kami menambahkan input pengujian ke prompt dan mengizinkan model bahasa membuat prediksi dengan mengkondisikan prompt dan memprediksi token atau kata berikutnya. Ini adalah teknik yang sangat efektif untuk menyelesaikan beberapa masalah pembelajaran tembakan, di mana kami mempelajari tugas dari beberapa sampel pelatihan.

Selanjutnya, kami menunjukkan bagaimana Anda dapat menggunakan AlexaTM 20B untuk beberapa tugas 1-shot dan zero-shot melalui pembelajaran dalam konteks. Tidak seperti model urutan-ke-urutan sebelumnya, AlexaTM 20B dilatih tentang pemodelan bahasa kausal selain denoising, yang menjadikannya model yang bagus untuk pembelajaran dalam konteks.

Peringkasan teks 1-shot

Peringkasan teks adalah tugas memperpendek data dan membuat ringkasan yang mewakili informasi terpenting yang ada dalam teks asli. Peringkasan teks 1-shot mengacu pada pengaturan tempat kita belajar meringkas teks berdasarkan satu sampel pelatihan. Kode berikut adalah contoh peringkasan teks dari kumpulan data XSUM:

train_article = "The announcement ends months of uncertainty for Cornish Language Partnership staff whose contracts had been due to end. Local government minister Andrew Stunnell said the three-year funding package for the service would help make sure the language survived. But he warned that long term funding should come from Cornwall. He said it was "important to make sure the Cornish were given the opportunity to put down sound foundations." "In the longer term support for the Cornish language is going to be something which is going to have to be based in Cornwall and will not come from London," he added. The Cornish Language Partnership's, Jennifer Lowe, said: "We can now plan for the future thanks to the funding." The United Nations recently upgraded the status of the Cornish language from "extinct" to "critically endangered". It is thought fewer than 500 people worldwide are fluent in the language.""
                
train_summary = "The government is spending nearly ยฃ400,000 to help save the Cornish language."

test_article = "Torrents of water brought down a suspended ceiling and damaged stock "
                "in the Victoria Centre store at about 22:40 BST on Tuesday. Managers "
                "had hoped for a weekend reopening but it is now closed "until "
                "further notice". Staff have been helping with the clean-up "
                "operation. Water poured through from a rooftop room, leaving the "
                "top floor under three inches of water and stock "significantly" "
                "damaged. A spokeswoman said: "Our teams are working around the "
                "clock to get the shop open as quickly as possible and we're sorry "
                "for the inconvenience this has caused to our customers.""

Kami menggunakan prompt berikut untuk meringkas ketika hanya satu sampel pelatihan yang disediakan. Teks yang dihasilkan dari model diinterpretasikan sebagai prediksi ringkasan artikel uji.

AlexaTM 20B kini tersedia di Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. Pencarian Vertikal. Ai.

Outputnya adalah sebagai berikut:

AlexaTM 20B output: 'The top floor of a London department store has been flooded.'

Generasi bahasa alami 1-shot

Natural language generation adalah tugas memproduksi teks naratif yang diberikan input teks. Contoh berikut menunjukkan contoh pelatihan dari kumpulan data E2E:

train_inp = "name[The Punter], food[Indian], priceRange[cheap]"
train_out = "The Punter provides Indian food in the cheap price range."

test_inp = "name[Blue Spice], eatType[coffee shop], area"

Kami menggunakan permintaan berikut untuk pembuatan bahasa alami ketika hanya satu sampel pelatihan (1-shot) disediakan. Teks yang dihasilkan dari model diinterpretasikan sebagai prediksi teks naratif untuk input tes (test_inp).

AlexaTM 20B kini tersedia di Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. Pencarian Vertikal. Ai.

Outputnya adalah sebagai berikut:

AlexaTM 20B output: 'Blue Spice is a coffee shop in the city centre. '

Terjemahan mesin 1-shot

Terjemahan mesin adalah tugas menerjemahkan teks dari satu bahasa ke bahasa lain. Contoh berikut menunjukkan contoh pelatihan dari kumpulan data WMT19 di mana kita perlu menerjemahkan dari bahasa Jerman ke bahasa Inggris:

train_inp = "Das Parlament erhebt sich zu einer Schweigeminute."
train_out = "The House rose and observed a minute' s silence"

test_inp = "Kleingรคrtner bewirtschaften den einstigen Grund von Bauern."

Kami menggunakan prompt berikut untuk terjemahan mesin ketika hanya satu sampel pelatihan (1-shot) disediakan. Teks yang dihasilkan dari model ditafsirkan sebagai terjemahan dari input tes (test_inp).

AlexaTM 20B kini tersedia di Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. Pencarian Vertikal. Ai.

Outputnya adalah sebagai berikut:

AlexaTM 20B translation: 'Gardeners cultivate the former land of farmers.'

Menjawab pertanyaan ekstraktif zero-shot

Menjawab pertanyaan ekstraktif adalah tugas menemukan jawaban atas pertanyaan dari paragraf konteks. Berikut ini adalah contoh konteks dan pertanyaan dari Kumpulan data SQuAD v2:

test_context = "The Normans (Norman: Nourmands; French: Normands; Latin: Normanni) were the people who in the 10th and 11th centuries gave their name to Normandy, a region in France. They were descended from Norse ("Norman" comes from "Norseman") raiders and pirates from Denmark, Iceland and Norway who, under their leader Rollo, agreed to swear fealty to King Charles III of West Francia. Through generations of assimilation and mixing with the native Frankish and Roman-Gaulish populations, their descendants would gradually merge with the Carolingian-based cultures of West Francia. The distinct cultural and ethnic identity of the Normans emerged initially in the first half of the 10th century, and it continued to evolve over the succeeding centuries."
test_question = "In what country is Normandy located?"

Perhatikan bahwa kami tidak memiliki sampel pelatihan untuk tugas kami. Sebagai gantinya, kami membuat pertanyaan tiruan tentang kata terakhir di prompt , berdasarkan pada test_context (dummy-tembakan). Oleh karena itu, kami benar-benar melakukan penjawaban pertanyaan ekstraktif zero-shot.

Kami menggunakan petunjuk berikut untuk menjawab pertanyaan ekstraktif saat tidak ada sampel pelatihan yang diberikan. Generate text dari model diinterpretasikan sebagai jawaban dari soal tes.

AlexaTM 20B kini tersedia di Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. Pencarian Vertikal. Ai.

Outputnya adalah sebagai berikut:

AlexaTM 20B output: 'France'

Rekayasa Cepat

Rekayasa cepat terkadang bisa menjadi seni. Bahkan perubahan kecil pada template perintah dapat mengakibatkan perubahan signifikan pada performa model pada tugas tertentu. Berikut ini adalah beberapa saran untuk menulis template prompt yang baik. Pertama, penting untuk diingat bahwa model dilatih untuk mempelajari struktur kalimat nyata (causal language modeling). Karena itu, yang terbaik adalah memastikan bahwa templat perintah Anda benar secara tata bahasa dan struktur dalam bahasa alami. Kedua, model khusus ini mendapat manfaat dari bidikan boneka untuk membantu mengajarkannya struktur yang diharapkan dalam jawaban, seperti yang ditunjukkan di atas. Ketiga, selalu disarankan untuk memeriksa kinerja tugas melalui berbagai templat prompt kandidat. Sumber Prompt dan Instruksi Alami adalah dua kerangka kerja open-source untuk menstandarkan template prompt, dan mereka menyediakan berbagai contoh prompt yang digunakan untuk tugas pemodelan yang ada. Selain itu, Lampiran B dari Kertas AlexaTM 20B menyediakan prompt template yang digunakan untuk menghasilkan hasil yang disajikan di kertas. Ada sub-bidang berkembang yang didedikasikan untuk pembuatan dan pembelajaran otomatis petunjuk terbaik untuk suatu tugas, termasuk bahasa alami dan petunjuk berkelanjutan. Ini di luar cakupan tutorial ini.

Kesimpulan

Dalam postingan ini, kami menunjukkan cara menerapkan model AlexaTM 20B pada titik akhir SageMaker dan menjalankan inferensi. Anda dapat menggunakan model AlexaTM 20B untuk pembelajaran dalam konteks untuk berbagai tugas pembelajaran beberapa langkah. Untuk mempelajari lebih lanjut tentang AlexaTM 20B, lihat Model Alexa parameter 20B menetapkan nilai baru dalam pembelajaran beberapa langkah atau asli kertas.

Penulis ingin mengucapkan terima kasih atas kontribusi teknis dari Maciej Rudnicki, Jakub Debski, Ashish Khetan, Anastasiia Dubinina, Vitaliy Korolev, Karl Albertsen, Saleh Soltan, dan Mariusz Momotko untuk memungkinkan peluncuran ini.


Tentang JumpStart

JumpStart adalah pusat pembelajaran mesin (ML) dari Amazon SageMaker yang menawarkan lebih dari 350 model terlatih, algoritme bawaan, dan templat solusi bawaan untuk membantu Anda memulai ML dengan cepat. JumpStart menghosting model canggih dari hub model populer seperti TensorFlow, PyTorch, Hugging Face, dan MXNet, yang mendukung tugas ML populer seperti deteksi objek, klasifikasi teks, dan pembuatan teks. Komunitas riset ML telah berupaya keras untuk membuat sebagian besar model yang dikembangkan baru-baru ini tersedia untuk umum. JumpStart bertujuan untuk membantu Anda menemukan model dan algoritme ML yang tepat, dan segera mulai membuat model. Secara khusus, JumpStart memberikan keuntungan sebagai berikut:

  • Akses mudah dengan UI dan SDK โ€“ Anda dapat mengakses model dan algoritme di JumpStart secara terprogram menggunakan SageMaker Python SDK atau melalui UI JumpStart di Amazon SageMaker Studio. Saat ini, AlexaTM 20B hanya dapat diakses melalui SageMaker Python SDK.
  • Algoritme bawaan SageMaker โ€“ JumpStart menyediakan lebih dari 350 algoritme bawaan dan model terlatih, beserta skrip pelatihan terkait (jika didukung), skrip inferensi, dan buku catatan contoh. Skrip dioptimalkan untuk setiap kerangka kerja dan tugas, dan menyediakan fitur seperti dukungan GPU, penyetelan model otomatis, dan pelatihan tambahan. Skrip juga diuji terhadap instans dan fitur SageMaker sehingga Anda tidak mengalami masalah kompatibilitas.
  • Solusi siap pakai โ€“ JumpStart menyediakan 23 solusi untuk kasus penggunaan ML umum, seperti perkiraan permintaan dan aplikasi industri dan keuangan, yang dapat Anda terapkan hanya dengan beberapa klik. Solusi adalah aplikasi ML end-to-end yang menyatukan berbagai layanan AWS untuk menyelesaikan kasus penggunaan bisnis tertentu. Mereka menggunakan template AWS CloudFormation dan arsitektur referensi untuk penerapan cepat, yang berarti dapat disesuaikan sepenuhnya.
  • Dukungan โ€“ SageMaker menyediakan berbagai dukungan, seperti mempertahankan versi terbaru saat fitur SageMaker baru atau versi Wadah Pembelajaran Jauh dirilis, dan membuat dokumentasi tentang cara menggunakan konten JumpStart di lingkungan SageMaker.

Untuk mempelajari lebih lanjut tentang JumpStart dan bagaimana Anda dapat menggunakan model terlatih sumber terbuka untuk berbagai tugas ML lainnya, lihat yang berikut ini Video AWS re:Invent 2020.


Tentang Penulis

AlexaTM 20B kini tersedia di Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. Pencarian Vertikal. Ai.Dr Vivek Madan adalah Ilmuwan Terapan dengan tim JumpStart Amazon SageMaker. Dia mendapatkan gelar PhD dari University of Illinois di Urbana-Champaign dan merupakan Peneliti Pasca Doktoral di Georgia Tech. Dia adalah peneliti aktif dalam pembelajaran mesin dan desain algoritma dan telah menerbitkan makalah di konferensi EMNLP, ICLR, COLT, FOCS, dan SODA.

AlexaTM 20B kini tersedia di Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. Pencarian Vertikal. Ai.Jack FitzGerald adalah ilmuwan terapan senior di Alexa AI, di mana dia saat ini berfokus pada pemodelan bahasa besar, pemodelan teks multibahasa, dan operasi pembelajaran mesin.

AlexaTM 20B kini tersedia di Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. Pencarian Vertikal. Ai.Joรฃo Moura adalah Arsitek Solusi Spesialis AI/ML di Amazon Web Services. Dia sebagian besar berfokus pada kasus penggunaan NLP dan membantu pelanggan mengoptimalkan pelatihan dan penerapan model pembelajaran mendalam. Dia juga merupakan pendukung aktif solusi ML kode rendah dan perangkat keras khusus ML.

AlexaTM 20B kini tersedia di Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. Pencarian Vertikal. Ai. Juni Won adalah manajer produk dengan SageMaker JumpStart dan Algoritma Bawaan. Dia berfokus untuk membuat konten ML mudah ditemukan dan digunakan oleh pelanggan SageMaker.

AlexaTM 20B kini tersedia di Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. Pencarian Vertikal. Ai.Pulkit Kapur adalah pemimpin produk untuk program Model Guru Alexa dengan Alexa AI, berfokus pada kecerdasan umum dan penerapan model fondasi multimodal multitugas Alexa.

Stempel Waktu:

Lebih dari Pembelajaran Mesin AWS