Hari ini kami dengan senang hati mengumumkan bahwa Anda sekarang dapat melakukan transformasi batch dengan Mulai Lompatan Amazon SageMaker model bahasa besar (LLM) untuk Text2Text Generation. Transformasi batch berguna dalam situasi di mana respons tidak perlu waktu nyata dan oleh karena itu Anda dapat melakukan inferensi secara batch untuk kumpulan data besar secara massal. Untuk transformasi batch, tugas batch dijalankan yang mengambil masukan batch sebagai kumpulan data dan model pra-pelatihan, serta prediksi keluaran untuk setiap titik data dalam kumpulan data. Transformasi batch hemat biaya karena tidak seperti titik akhir yang dihosting secara real-time yang memiliki perangkat keras persisten, cluster transformasi batch dirobohkan saat pekerjaan selesai dan oleh karena itu perangkat keras hanya digunakan selama durasi pekerjaan batch.
Dalam beberapa kasus penggunaan, permintaan inferensi real-time dapat dikelompokkan dalam batch kecil untuk pemrosesan batch guna membuat respons real-time atau hampir real-time. Misalnya, jika Anda perlu memproses aliran data berkelanjutan dengan latensi rendah dan throughput tinggi, meminta titik akhir real-time untuk setiap permintaan secara terpisah akan membutuhkan lebih banyak sumber daya dan dapat memakan waktu lebih lama untuk memproses semua permintaan karena pemrosesan dilakukan secara berurutan. . Pendekatan yang lebih baik adalah mengelompokkan beberapa permintaan dan memanggil titik akhir real-time dalam mode inferensi batch, yang memproses permintaan Anda dalam satu penerusan model dan mengembalikan respons massal untuk permintaan secara real time atau mendekati waktu nyata . Latensi respons akan bergantung pada berapa banyak permintaan yang Anda kelompokkan bersama dan ukuran memori instans, sehingga Anda dapat menyesuaikan ukuran batch sesuai kebutuhan bisnis Anda untuk latensi dan throughput. Kami menyebutnya inferensi batch waktu-nyata karena menggabungkan konsep batching dengan tetap memberikan respon real-time. Dengan inferensi batch waktu nyata, Anda dapat mencapai keseimbangan antara latensi rendah dan throughput tinggi, memungkinkan Anda memproses data dalam jumlah besar secara tepat waktu dan efisien.
Transformasi batch jumpstart untuk model Text2Text Generation memungkinkan Anda melewatkan hyperparameter batch melalui variabel lingkungan yang selanjutnya meningkatkan throughput dan meminimalkan latensi.
JumpStart menyediakan model sumber terbuka yang telah dilatih sebelumnya untuk berbagai jenis masalah guna membantu Anda memulai pembelajaran mesin (ML). Anda dapat melatih dan menyetel model ini secara bertahap sebelum diterapkan. JumpStart juga menyediakan template solusi yang menyiapkan infrastruktur untuk kasus penggunaan umum, dan notebook contoh yang dapat dieksekusi untuk ML dengan Amazon SageMaker. Anda dapat mengakses model terlatih, template solusi, dan contoh melalui halaman arahan JumpStart di Studio Amazon SageMaker. Anda juga dapat mengakses model JumpStart menggunakan SageMaker Python SDK.
Dalam posting ini, kami mendemonstrasikan cara menggunakan pra-terlatih yang canggih model text2text FLAN T5 dari Hugging Face untuk transformasi batch dan inferensi batch real-time.
Ikhtisar solusi
Notebook yang menampilkan transformasi batch model Text2Text FLAN T5 pra-pelatihan dari Wajah Memeluk tersedia berikut ini Repositori GitHub. Notebook ini menggunakan data dari Hugging Face cnn_dailymail dataset untuk tugas peringkasan teks menggunakan SageMaker SDK.
Berikut adalah langkah-langkah kunci untuk mengimplementasikan transformasi batch dan inferensi batch waktu nyata:
- Siapkan prasyarat.
- Pilih model terlatih.
- Ambil artefak untuk model.
- Tentukan hyperparameter tugas transformasi batch.
- Siapkan data untuk transformasi batch.
- Jalankan tugas transformasi batch.
- Evaluasi ringkasan menggunakan a RED (Recall-Oriented Understudy for Gisting Evaluation) skor.
- Lakukan inferensi batch waktu nyata.
Siapkan prasyarat
Sebelum menjalankan notebook, Anda harus menyelesaikan beberapa langkah penyiapan awal. Mari siapkan peran eksekusi SageMaker agar memiliki izin untuk menjalankan layanan AWS atas nama Anda:
Pilih model terlatih
Kami menggunakan model huggingface-text2text-flan-t5-large sebagai model default. Opsional, Anda dapat mengambil daftar model Text2Text yang tersedia di JumpStart dan memilih model pilihan Anda. Metode ini memberikan cara mudah untuk memilih ID model yang berbeda menggunakan notebook yang sama. Untuk tujuan demonstrasi, kami menggunakan model huggingface-text2text-flan-t5-large :
Ambil artefak untuk model
Dengan SageMaker, kami dapat melakukan inferensi pada model yang telah dilatih sebelumnya, bahkan tanpa menyempurnakannya terlebih dahulu pada kumpulan data baru. Kita mulai dengan mengambil file deploy_image_uri
, deploy_source_uri
, dan model_uri
untuk model pra-terlatih:
Tentukan hyperparameter tugas transformasi batch
Anda dapat meneruskan subset hyperparameter apa pun sebagai variabel lingkungan ke tugas transformasi batch. Anda juga dapat melewatkan hyperparameter ini dalam payload JSON. Namun, jika Anda menyetel variabel lingkungan untuk hyperparameter seperti yang ditunjukkan kode berikut, maka hyperparameter lanjutan dari contoh individual dalam payload baris JSON tidak akan digunakan. Jika Anda ingin menggunakan hyperparameter dari payload, Anda mungkin ingin mengaturnya hyper_params_dict
parameter sebagai null sebagai gantinya.
Menyiapkan data untuk transformasi batch
Sekarang kita siap untuk memuat cnn_dailymail dataset dari Hugging Face:
Kami memeriksa setiap entri data dan membuat data input dalam format yang diperlukan. Kami membuat sebuah articles.jsonl
file sebagai file data uji yang berisi artikel yang perlu dirangkum sebagai muatan input. Saat kami membuat file ini, kami menambahkan prompt "Briefly summarize this text:"
untuk setiap baris input tes. Jika Anda ingin memiliki hyperparameter yang berbeda untuk setiap input pengujian, Anda dapat menambahkan hyperparameter tersebut sebagai bagian dari pembuatan dataset.
Kami menciptakan highlights.jsonl
sebagai file kebenaran dasar yang berisi sorotan dari setiap artikel yang disimpan dalam file uji articles.jsonl
. Kami menyimpan kedua file uji dalam file Layanan Penyimpanan Sederhana Amazon (Amazon S3) ember. Lihat kode berikut:
Jalankan tugas transformasi batch
Saat Anda memulai tugas transformasi batch, SageMaker meluncurkan sumber daya komputasi yang diperlukan untuk memproses data, termasuk instans CPU atau GPU bergantung pada jenis instans yang dipilih. Selama tugas transformasi batch, SageMaker secara otomatis menyediakan dan mengelola sumber daya komputasi yang diperlukan untuk memproses data, termasuk instans, penyimpanan, dan sumber daya jaringan. Saat tugas transformasi batch selesai, sumber daya komputasi dibersihkan secara otomatis oleh SageMaker. Ini berarti instans dan penyimpanan yang digunakan selama pekerjaan dihentikan dan dihapus, membebaskan sumber daya, dan meminimalkan biaya. Lihat kode berikut:
Berikut ini adalah salah satu contoh rekaman dari articles.jsonl
berkas uji. Perhatikan bahwa catatan dalam file ini memiliki ID yang cocok dengan predict.jsonl
rekaman file yang menampilkan rekaman ringkasan sebagai output dari model Hugging Face Text2Text. Demikian pula, file ground truth juga memiliki ID yang cocok untuk catatan data. ID yang cocok di seluruh file pengujian, file kebenaran dasar, dan file keluaran memungkinkan menghubungkan catatan masukan dengan catatan keluaran untuk interpretasi hasil yang mudah.
Berikut ini adalah contoh input record yang disediakan untuk summarization:
Berikut ini adalah keluaran yang diprediksi dengan peringkasan:
Berikut ini adalah ringkasan kebenaran dasar untuk tujuan evaluasi model:
Selanjutnya, kami menggunakan kebenaran dasar dan keluaran yang diprediksi untuk evaluasi model.
Evaluasi model menggunakan skor ROUGEยถ
RED, atau Recall-Oriented Understudy for Gisting Evaluation, adalah kumpulan metrik dan paket perangkat lunak yang digunakan untuk mengevaluasi peringkasan otomatis dan terjemahan mesin dalam pemrosesan bahasa alami. Metrik membandingkan ringkasan atau terjemahan yang dihasilkan secara otomatis dengan ringkasan atau terjemahan referensi (buatan manusia) atau sekumpulan referensi.
Dalam kode berikut, kami menggabungkan ringkasan yang diprediksi dan asli dengan menggabungkannya pada kunci umum id
dan gunakan ini untuk menghitung skor ROUGE:
Lakukan inferensi batch waktu nyata
Selanjutnya, kami tunjukkan cara menjalankan inferensi batch real-time di titik akhir dengan memberikan input sebagai daftar. Kami menggunakan ID model dan kumpulan data yang sama seperti sebelumnya, kecuali kami mengambil beberapa catatan dari kumpulan data pengujian dan menggunakannya untuk memanggil titik akhir waktu nyata.
Kode berikut menunjukkan cara membuat dan menerapkan titik akhir real-time untuk inferensi batch real-time:
Selanjutnya, kami menyiapkan payload input kami. Untuk ini, kami menggunakan data yang kami siapkan sebelumnya dan mengekstrak 10 input pengujian pertama dan menambahkan input teks dengan hyperparameter yang ingin kami gunakan. Kami menyediakan payload ini secara real-time invoke_endpoint
. Muatan respons kemudian dikembalikan sebagai daftar respons. Lihat kode berikut:
Membersihkan
Setelah Anda menguji titik akhir, pastikan Anda menghapus titik akhir inferensi SageMaker dan menghapus model untuk menghindari biaya tambahan.
Kesimpulan
Di notebook ini, kami melakukan transformasi batch untuk menampilkan model Hugging Face Text2Text Generator untuk tugas peringkasan. Transformasi batch menguntungkan dalam memperoleh inferensi dari kumpulan data besar tanpa memerlukan titik akhir yang persisten. Kami menghubungkan catatan input dengan kesimpulan untuk membantu interpretasi hasil. Kami menggunakan skor ROUGE untuk membandingkan peringkasan data uji dengan peringkasan yang dihasilkan model.
Selain itu, kami mendemonstrasikan inferensi batch real-time, di mana Anda dapat mengirim sejumlah kecil data ke titik akhir real-time untuk mencapai keseimbangan antara latensi dan throughput untuk skenario seperti data input streaming. Inferensi batch real-time membantu meningkatkan throughput untuk permintaan real-time.
Cobalah transformasi batch dengan model Text2Text Generation di SageMaker hari ini dan beri tahu kami tanggapan Anda!
Tentang penulis
Hemant Singh adalah Insinyur Pembelajaran Mesin dengan pengalaman dalam Amazon SageMaker JumpStart dan algoritme bawaan Amazon SageMaker. Dia mendapatkan gelar masternya dari Courant Institute of Mathematical Sciences dan B.Tech dari IIT Delhi. Dia memiliki pengalaman dalam menangani beragam masalah pembelajaran mesin dalam domain pemrosesan bahasa alami, visi komputer, dan analisis deret waktu.
Rakhna Chadha adalah Arsitek Solusi Utama AI/ML di Akun Strategis di AWS. Rachna adalah seorang optimis yang percaya bahwa penggunaan AI secara etis dan bertanggung jawab dapat meningkatkan masyarakat di masa depan dan membawa kemakmuran ekonomi dan sosial. Di waktu luangnya, Rachna suka menghabiskan waktu bersama keluarganya, mendaki gunung, dan mendengarkan musik.
Dr Ashish Khetan adalah Ilmuwan Terapan Senior dengan algoritme bawaan Amazon SageMaker dan membantu mengembangkan algoritme pembelajaran mesin. Ia mendapatkan gelar PhD dari University of Illinois Urbana-Champaign. Dia adalah peneliti aktif dalam pembelajaran mesin dan inferensi statistik, dan telah menerbitkan banyak makalah di konferensi NeurIPS, ICML, ICLR, JMLR, ACL, dan EMNLP.
- Konten Bertenaga SEO & Distribusi PR. Dapatkan Amplifikasi Hari Ini.
- PlatoAiStream. Kecerdasan Data Web3. Pengetahuan Diperkuat. Akses Di Sini.
- Mencetak Masa Depan bersama Adryenn Ashley. Akses Di Sini.
- Beli dan Jual Saham di Perusahaan PRE-IPO dengan PREIPOยฎ. Akses Di Sini.
- Sumber: https://aws.amazon.com/blogs/machine-learning/perform-batch-transforms-with-amazon-sagemaker-jumpstart-text2text-generation-large-language-models/
- :memiliki
- :adalah
- :bukan
- :Di mana
- $NAIK
- 000
- 1
- 10
- 100
- 11
- 13
- 14
- 20
- 2014
- 50
- 7
- 8
- 9
- a
- Sanggup
- Tentang Kami
- atas
- penerimaan
- diterima
- mengakses
- Menurut
- Akun
- Mencapai
- Mengakuisisi
- di seluruh
- tindakan
- aktif
- maju
- menguntungkan
- terhadap
- AI
- AI / ML
- Membantu
- algoritma
- Semua
- diduga
- memungkinkan
- juga
- Amazon
- Amazon SageMaker
- Mulai Lompatan Amazon SageMaker
- Amazon Web Services
- an
- analisis
- dan
- Mengumumkan
- Apa pun
- api
- terapan
- pendekatan
- ADALAH
- sekitar
- artikel
- artikel
- AS
- At
- Mencoba
- kewenangan
- secara otomatis
- secara otomatis
- tersedia
- menghindari
- AWS
- Saldo
- mendasarkan
- berdasarkan
- BE
- menjadi
- karena
- menjadi
- sebelum
- makhluk
- Percaya
- percaya
- Benyamin
- Lebih baik
- antara
- tubuh
- kedua
- Kedua sisi
- batas-batas
- secara singkat
- membawa
- Membawa
- built-in
- bisnis
- tapi
- by
- panggilan
- CAN
- tidak bisa
- kasus
- Menyebabkan
- beban
- Pilih
- kelas
- klien
- lebih dekat
- CNN
- kode
- menggabungkan
- menggabungkan
- menggabungkan
- bagaimana
- komitmen
- berkomitmen
- Umum
- membandingkan
- lengkap
- menghitung
- komputer
- Visi Komputer
- konsep
- Mengadakan
- konferensi
- Wadah
- terus
- kontinu
- berkontribusi
- Biaya
- hemat biaya
- bisa
- nasihat
- kontraproduktif
- negara
- Pengadilan
- membuat
- membuat
- Kejahatan
- Pidana
- data
- entri data
- kumpulan data
- mati
- keputusan
- Default
- Delhi
- mendemonstrasikan
- menunjukkan
- Departemen
- Tergantung
- menyebarkan
- penyebaran
- dijelaskan
- Menentukan
- mengembangkan
- Pengembangan
- berbeda
- perbedaan
- berbeda
- langsung
- beberapa
- do
- Buruh pelabuhan
- domain
- dilakukan
- Dont
- Oleh
- turun
- lamanya
- selama
- setiap
- Terdahulu
- Timur
- Mudah
- Ekonomis
- efisien
- upaya
- berhak
- memungkinkan
- akhir
- Titik akhir
- insinyur
- memastikan
- Masuk
- masuk
- Lingkungan Hidup
- Era
- etis
- mengevaluasi
- mengevaluasi
- evaluasi
- Bahkan
- bukti
- contoh
- contoh
- Kecuali
- gembira
- eksekusi
- pengalaman
- ekstrak
- Menghadapi
- iman
- keluarga
- beberapa
- File
- File
- Pertama
- berikut
- Untuk
- kekuatan
- asing
- resmi
- Secara formal
- format
- Depan
- pembinaan
- dari
- penuh
- lebih lanjut
- masa depan
- generasi
- generator
- mendapatkan
- memberikan
- Go
- Anda
- Pemerintah
- GPU
- lebih besar
- Tanah
- Kelompok
- Perangkat keras
- Memiliki
- he
- membantu
- membantu
- dia
- di sini
- High
- highlight
- -nya
- host
- Seterpercayaapakah Olymp Trade? Kesimpulan
- How To
- Namun
- HTML
- http
- HTTPS
- MemelukWajah
- manusia
- hak asasi manusia
- Kemanusiaan
- ID
- id
- if
- Illinois
- gambar
- segera
- mengimplementasikan
- mengimpor
- memperbaiki
- in
- memasukkan
- Termasuk
- Meningkatkan
- kemerdekaan
- sendiri-sendiri
- Secara individual
- informasi
- Infrastruktur
- mulanya
- ketidakadilan
- memasukkan
- input
- penyelidikan
- contoh
- sebagai gantinya
- Lembaga
- Internasional
- interpretasi
- ke
- menyelidiki
- investigasi
- Investigasi
- Israel
- IT
- NYA
- Januari
- Pekerjaan
- ikut
- bergabung
- jpg
- json
- hakim
- Juni
- yurisdiksi
- hanya
- Keadilan
- kunci
- Tahu
- pendaratan
- bahasa
- besar
- Terakhir
- Latensi
- kemudian
- meluncurkan
- pengetahuan
- meninggalkan
- membiarkan
- enteng
- 'like'
- 'like
- baris
- baris
- terkait
- menghubungkan
- Daftar
- Listening
- memuat
- Panjang
- lagi
- Rendah
- mesin
- Mesin belajar
- membuat
- Membuat
- mengelola
- cara
- banyak
- ditandai
- cocok
- sesuai
- matematis
- Mungkin..
- cara
- anggota
- Anggota
- keanggotaan
- Memori
- metode
- Metrik
- meminimalkan
- ML
- mode
- model
- model
- Bulan
- lebih
- pindah
- musik
- harus
- nama
- Alam
- Pengolahan Bahasa alami
- perlu
- Perlu
- negosiasi
- juga tidak
- Belanda
- jaringan
- New
- berita
- rilis berita
- buku catatan
- sekarang
- obyek
- mendapatkan
- of
- Office
- Secara resmi
- on
- ONE
- hanya
- Buka
- open source
- dibuka
- menentang
- menentang
- or
- asli
- OS
- kami
- di luar
- keluaran
- lebih
- paket
- halaman
- Palestina
- dokumen
- parameter
- parameter
- bagian
- pihak
- lulus
- path
- Paving
- perdamaian
- Konsultan Ahli
- Melakukan
- Izin
- plato
- Kecerdasan Data Plato
- Data Plato
- silahkan
- Titik
- mungkin
- Pos
- meramalkan
- diprediksi
- ramalan
- Prediksi
- Predictor
- disukai
- Mempersiapkan
- siap
- prasyarat
- presiden
- tekanan
- Perdana
- perdana menteri
- Utama
- Masalah
- masalah
- proses
- proses
- pengolahan
- Diproduksi
- kemakmuran
- memberikan
- disediakan
- menyediakan
- menyediakan
- diterbitkan
- tujuan
- Ular sanca
- jarak
- siap
- nyata
- real-time
- catatan
- arsip
- referensi
- mengacu
- melepaskan
- Dihapus
- BERKALI-KALI
- melaporkan
- permintaan
- permintaan
- membutuhkan
- wajib
- Persyaratan
- peneliti
- Sumber
- tanggapan
- tanggapan
- tanggung jawab
- tanggung jawab
- mengakibatkan
- Hasil
- kembali
- Pengembalian
- ulasan
- hak
- Peran
- Roma
- BARIS
- Run
- s
- pembuat bijak
- Inferensi SageMaker
- Tersebut
- sama
- mengatakan
- skenario
- ILMU PENGETAHUAN
- ilmuwan
- skor
- SDK
- melihat
- pencarian
- terpilih
- mengirim
- senior
- Seri
- Layanan
- set
- pengaturan
- penyiapan
- berbagi
- dia
- harus
- Menunjukkan
- menampilkan
- Pertunjukkan
- Sisi
- tertanda
- Demikian pula
- Sederhana
- sejak
- situasi
- situasi
- Ukuran
- kecil
- So
- Sosial
- Masyarakat
- Perangkat lunak
- larutan
- Solusi
- beberapa
- berbicara
- berbicara
- Pengeluaran
- awal
- mulai
- Negara
- Departemen Luar Negeri
- state-of-the-art
- Pernyataan
- Negara
- statistik
- Langkah
- Tangga
- Masih
- terhenti
- penyimpanan
- menyimpan
- tersimpan
- mudah
- Strategis
- aliran
- Streaming
- sangat
- subyek
- meringkaskan
- RINGKASAN
- musim panas
- mendukung
- Mengambil
- diambil
- Dibutuhkan
- tugas
- tugas
- tech
- template
- wilayah
- wilayah
- uji
- dari
- bahwa
- Grafik
- informasi
- Belanda
- Negara
- Dunia
- mereka
- Mereka
- kemudian
- karena itu
- Ini
- mereka
- ini
- itu
- Melalui
- keluaran
- waktu
- Seri waktu
- untuk
- hari ini
- bersama
- robek
- terhadap
- Pelatihan VE
- Mengubah
- transformator
- transformasi
- Terjemahan
- benar
- kebenaran
- mengetik
- jenis
- Merusak
- Serikat
- Amerika Serikat
- Universal
- universitas
- tidak seperti
- Mengunggah
- atas
- us
- menggunakan
- bekas
- menggunakan
- Wakil Presiden
- penglihatan
- volume
- W
- ingin
- perang
- adalah
- Menonton
- Cara..
- we
- jaringan
- layanan web
- Rabu
- selamat datang
- menyambut
- BAIK
- Apa
- ketika
- apakah
- yang
- sementara
- SIAPA
- lebar
- Rentang luas
- akan
- dengan
- dalam
- tanpa
- kerja
- dunia
- akan
- Kamu
- Anda
- zephyrnet.dll