Minimalkan latensi inferensi real-time dengan menggunakan strategi perutean Amazon SageMaker | Layanan Web Amazon

Minimalkan latensi inferensi real-time dengan menggunakan strategi perutean Amazon SageMaker | Layanan Web Amazon

Amazon SageMaker memudahkan penerapan model pembelajaran mesin (ML) untuk inferensi real-time dan menawarkan beragam pilihan instance ML yang mencakup CPU dan akselerator seperti Inferensi AWS. Sebagai layanan yang terkelola sepenuhnya, Anda dapat menskalakan penerapan model, meminimalkan biaya inferensi, dan mengelola model secara lebih efektif dalam produksi dengan mengurangi beban operasional. Titik akhir inferensi real-time SageMaker terdiri dari titik akhir HTTP dan instans ML yang diterapkan di beberapa Availability Zone untuk ketersediaan tinggi. Pembuat Sage penskalaan otomatis aplikasi dapat secara dinamis menyesuaikan jumlah instance ML yang disediakan untuk suatu model sebagai respons terhadap perubahan beban kerja. Titik akhir secara seragam mendistribusikan permintaan masuk ke instance ML menggunakan algoritma round-robin.

Saat model ML yang diterapkan pada instance menerima panggilan API dari sejumlah besar klien, distribusi permintaan secara acak dapat bekerja dengan baik ketika tidak banyak variabilitas dalam permintaan dan respons Anda. Namun dalam sistem dengan beban kerja AI generatif, permintaan dan respons bisa sangat bervariasi. Dalam kasus ini, sering kali lebih baik melakukan penyeimbangan beban dengan mempertimbangkan kapasitas dan pemanfaatan instance, bukan penyeimbangan beban acak.

Dalam postingan ini, kami membahas strategi perutean permintaan paling rendah (LOR) SageMaker dan bagaimana strategi ini dapat meminimalkan latensi untuk jenis beban kerja inferensi real-time tertentu dengan mempertimbangkan kapasitas dan pemanfaatan instance ML. Kami membahas manfaatnya dibandingkan mekanisme perutean default dan bagaimana Anda dapat mengaktifkan LOR untuk penerapan model Anda. Terakhir, kami menyajikan analisis komparatif peningkatan latensi dengan LOR dibandingkan strategi perutean default perutean acak.

Strategi SageMaker LOR

Secara default, titik akhir SageMaker memiliki strategi perutean acak. SageMaker kini mendukung strategi LOR, yang memungkinkan SageMaker merutekan permintaan secara optimal ke instans yang paling sesuai untuk melayani permintaan tersebut. SageMaker memungkinkan hal ini dengan memantau beban instans di belakang titik akhir Anda, dan model atau komponen inferensi yang diterapkan pada setiap instans.

Diagram interaktif berikut menunjukkan kebijakan perutean default di mana permintaan yang datang ke titik akhir model diteruskan secara acak ke instance ML.

Minimalkan latensi inferensi real-time dengan menggunakan strategi perutean Amazon SageMaker | Kecerdasan Data PlatoBlockchain Layanan Web Amazon. Pencarian Vertikal. Ai.

Diagram interaktif berikut menunjukkan strategi perutean di mana SageMaker akan merutekan permintaan ke instans yang memiliki jumlah permintaan luar biasa paling sedikit.

Minimalkan latensi inferensi real-time dengan menggunakan strategi perutean Amazon SageMaker | Kecerdasan Data PlatoBlockchain Layanan Web Amazon. Pencarian Vertikal. Ai.

Secara umum, perutean LOR berfungsi dengan baik untuk model dasar atau model AI generatif ketika model Anda merespons dalam ratusan milidetik hingga menit. Jika respons model Anda memiliki latensi lebih rendah (hingga ratusan milidetik), Anda dapat memperoleh manfaat lebih banyak dari perutean acak. Apapun itu, kami menyarankan Anda menguji dan mengidentifikasi algoritma perutean terbaik untuk beban kerja Anda.

Cara mengatur strategi perutean SageMaker

SageMaker sekarang memungkinkan Anda untuk mengatur RoutingStrategy parameter saat membuat EndpointConfiguration untuk titik akhir. Yang berbeda RoutingStrategy nilai-nilai yang didukung oleh SageMaker adalah:

  • LEAST_OUTSTANDING_REQUESTS
  • RANDOM

Berikut ini adalah contoh penerapan model pada titik akhir inferensi yang mengaktifkan LOR:

  1. Buat konfigurasi titik akhir dengan mengatur RoutingStrategy as LEAST_OUTSTANDING_REQUESTS:
    endpoint_config_response = sm_client.create_endpoint_config( EndpointConfigName=endpoint_config_name, ProductionVariants=[ { "VariantName": "variant1", "ModelName": model_name, "InstanceType": "instance_type", "InitialInstanceCount": initial_instance_count, โ€ฆ.. "RoutingConfig": { 'RoutingStrategy': 'LEAST_OUTSTANDING_REQUESTS'} }, ],
    )

  2. Buat titik akhir menggunakan konfigurasi titik akhir (tidak ada perubahan):
    create_endpoint_response = sm_client.create_endpoint( EndpointName="endpoint_name", EndpointConfigName="endpoint_config_name"
    )

Hasil kinerja

Kami menjalankan tolok ukur kinerja untuk mengukur latensi inferensi ujung ke ujung dan throughput kodegen2-7B model yang dihosting di instans ml.g5.24xl dengan perutean default dan titik akhir perutean cerdas. Model CodeGen2 termasuk dalam keluarga model bahasa autoregresif dan menghasilkan kode yang dapat dieksekusi ketika diberikan perintah bahasa Inggris.

Dalam analisis kami, kami meningkatkan jumlah instance ml.g5.24xl di belakang setiap titik akhir untuk setiap pengujian yang dijalankan seiring dengan peningkatan jumlah pengguna secara bersamaan, seperti yang ditunjukkan pada tabel berikut.

uji Jumlah Pengguna Bersamaan Jumlah Instance
1 4 1
2 20 5
3 40 10
4 60 15
5 80 20

Kami mengukur latensi P99 end-to-end untuk kedua titik akhir dan mengamati peningkatan latensi sebesar 4โ€“33% ketika jumlah instans ditingkatkan dari 5 menjadi 20, seperti yang ditunjukkan pada grafik berikut.

Minimalkan latensi inferensi real-time dengan menggunakan strategi perutean Amazon SageMaker | Kecerdasan Data PlatoBlockchain Layanan Web Amazon. Pencarian Vertikal. Ai.

Demikian pula, kami mengamati peningkatan sebesar 15โ€“16% dalam throughput per menit per instans ketika jumlah instans ditingkatkan dari 5 menjadi 20.

Minimalkan latensi inferensi real-time dengan menggunakan strategi perutean Amazon SageMaker | Kecerdasan Data PlatoBlockchain Layanan Web Amazon. Pencarian Vertikal. Ai.

Hal ini menggambarkan bahwa perutean cerdas mampu meningkatkan distribusi lalu lintas antar titik akhir, sehingga menghasilkan peningkatan latensi ujung ke ujung dan throughput secara keseluruhan.

Kesimpulan

Dalam postingan ini, kami menjelaskan strategi perutean SageMaker dan opsi baru untuk mengaktifkan perutean LOR. Kami menjelaskan cara mengaktifkan LOR dan manfaatnya bagi penerapan model Anda. Pengujian kinerja kami menunjukkan peningkatan latensi dan throughput selama inferensi real-time. Untuk mempelajari lebih lanjut tentang fitur perutean SageMaker, lihat dokumentasi. Kami mendorong Anda untuk mengevaluasi beban kerja inferensi Anda dan menentukan apakah Anda sudah dikonfigurasikan secara optimal dengan strategi perutean.


Tentang Penulis

Minimalkan latensi inferensi real-time dengan menggunakan strategi perutean Amazon SageMaker | Kecerdasan Data PlatoBlockchain Layanan Web Amazon. Pencarian Vertikal. Ai.James Taman adalah Arsitek Solusi di Amazon Web Services. Dia bekerja dengan Amazon.com untuk merancang, membangun, dan menerapkan solusi teknologi di AWS, dan memiliki minat khusus pada AI dan pembelajaran mesin. Di waktu luangnya, dia senang mencari budaya baru, pengalaman baru, dan mengikuti perkembangan tren teknologi terkini. Anda dapat menemukannya di LinkedIn.

Minimalkan latensi inferensi real-time dengan menggunakan strategi perutean Amazon SageMaker | Kecerdasan Data PlatoBlockchain Layanan Web Amazon. Pencarian Vertikal. Ai.Venugopal Pai adalah Arsitek Solusi di AWS. Dia tinggal di Bengaluru, India, dan membantu pelanggan asli digital menskalakan dan mengoptimalkan aplikasi mereka di AWS.

Minimalkan latensi inferensi real-time dengan menggunakan strategi perutean Amazon SageMaker | Kecerdasan Data PlatoBlockchain Layanan Web Amazon. Pencarian Vertikal. Ai.David Nigeria adalah Insinyur Pengembangan Perangkat Lunak Senior di tim Amazon SageMaker, yang saat ini bekerja untuk meningkatkan alur kerja pembelajaran mesin produksi, serta meluncurkan fitur inferensi baru. Di waktu senggangnya, ia berusaha mengikuti perkembangan anak-anaknya.

Minimalkan latensi inferensi real-time dengan menggunakan strategi perutean Amazon SageMaker | Kecerdasan Data PlatoBlockchain Layanan Web Amazon. Pencarian Vertikal. Ai.Deepti Ragha adalah Insinyur Pengembangan Perangkat Lunak di tim Amazon SageMaker. Pekerjaannya saat ini berfokus pada pembuatan fitur untuk menghosting model pembelajaran mesin secara efisien. Di waktu senggangnya, dia suka jalan-jalan, mendaki gunung, dan menanam tanaman.

Alan TanAlan Tan adalah Manajer Produk Senior dengan SageMaker, memimpin upaya pada inferensi model besar. Dia bersemangat menerapkan pembelajaran mesin ke bidang analitik. Di luar pekerjaan, dia menikmati alam bebas.

Minimalkan latensi inferensi real-time dengan menggunakan strategi perutean Amazon SageMaker | Kecerdasan Data PlatoBlockchain Layanan Web Amazon. Pencarian Vertikal. Ai.Dhawal Patel adalah Arsitek Pembelajaran Mesin Utama di AWS. Dia telah bekerja dengan organisasi mulai dari perusahaan besar hingga perusahaan rintisan menengah pada masalah yang terkait dengan komputasi terdistribusi, dan Kecerdasan Buatan. Dia berfokus pada Deep learning termasuk domain NLP dan Computer Vision. Dia membantu pelanggan mencapai inferensi model kinerja tinggi di SageMaker.

Stempel Waktu:

Lebih dari Pembelajaran Mesin AWS