Ini adalah posting tamu oleh Senior Software & Machine Learning Engineer Kustomer, Ian Lantzy, dan tim AWS Umesh Kalaspurkar, Prasad Shetty, dan Jonathan Greifenberger.
Dalam kata-kata Kustomer sendiri, โKustomer adalah platform SaaS CRM omnichannel yang menata ulang layanan pelanggan perusahaan untuk memberikan pengalaman yang luar biasa. Dibangun dengan otomatisasi cerdas, kami menskalakan untuk memenuhi kebutuhan pusat kontak dan bisnis apa pun dengan menyatukan data dari berbagai sumber dan memungkinkan perusahaan untuk memberikan layanan dan dukungan yang mudah, konsisten, dan dipersonalisasi melalui tampilan linimasa tunggal.โ
Kustomer menginginkan kemampuan untuk secara cepat menganalisis komunikasi dukungan dalam jumlah besar untuk pelanggan bisnis mereka โ pengalaman pelanggan dan organisasi layanan โ dan mengotomatiskan penemuan informasi seperti maksud pelanggan akhir, masalah layanan pelanggan, dan wawasan relevan lainnya yang terkait dengan konsumen. Memahami karakteristik ini dapat membantu organisasi CX mengelola ribuan email dukungan masuk dengan mengklasifikasikan dan mengkategorikan konten secara otomatis. Pelanggan memanfaatkan Amazon SageMaker untuk mengelola analisis komunikasi dukungan yang masuk melalui berbasis AI mereka IQ Kustomer platform. Layanan Klasifikasi Percakapan Kustomer IQ mampu mengontekstualisasikan percakapan dan mengotomatiskan tugas yang membosankan dan berulang, mengurangi gangguan agen dan keseluruhan biaya per kontak. Layanan IQ ini dan Pelanggan lainnya telah meningkatkan produktivitas dan otomatisasi bagi pelanggan bisnisnya.
Dalam posting ini, kita berbicara tentang bagaimana Kustomer menggunakan gambar Docker kustom untuk pelatihan dan inferensi SageMaker, yang memudahkan integrasi dan merampingkan proses. Dengan pendekatan ini, pelanggan bisnis Kustomer secara otomatis mengklasifikasikan lebih dari 50 ribu email dukungan setiap bulan dengan akurasi hingga 70%.
Latar belakang dan tantangan
Kustomer menggunakan saluran klasifikasi teks khusus untuk layanan Klasifikasi Percakapan mereka. Ini membantu mereka mengelola ribuan permintaan setiap hari melalui klasifikasi dan kategorisasi otomatis menggunakan pelatihan SageMaker dan orkestrasi inferensi. Mesin pelatihan Klasifikasi Percakapan menggunakan gambar Docker khusus untuk memproses data dan melatih model menggunakan percakapan historis dan kemudian memprediksi topik, kategori, atau label khusus lainnya yang dibutuhkan agen tertentu untuk mengklasifikasikan percakapan. Kemudian mesin prediksi menggunakan model terlatih dengan gambar buruh pelabuhan khusus lainnya untuk mengkategorikan percakapan, yang digunakan organisasi untuk mengotomatiskan pelaporan atau mengarahkan percakapan ke tim tertentu berdasarkan topiknya.
Proses kategorisasi SageMaker dimulai dengan membuat jalur pelatihan dan inferensi yang dapat memberikan klasifikasi teks dan rekomendasi kontekstual. Pengaturan tipikal akan diterapkan dengan pendekatan tanpa server seperti AWS Lambda untuk prapemrosesan dan pascapemrosesan data karena memiliki persyaratan penyediaan minimal dengan model penetapan harga sesuai permintaan yang efektif. Namun, menggunakan SageMaker dengan dependensi seperti TensorFlow, NumPy, dan Pandas dapat dengan cepat meningkatkan ukuran paket model, membuat proses penerapan secara keseluruhan menjadi rumit dan sulit untuk dikelola. Kustomer menggunakan gambar Docker khusus untuk mengatasi tantangan ini.
Gambar Docker khusus memberikan keuntungan substansial:
- Memungkinkan ukuran paket terkompresi yang lebih besar (lebih dari 10 GB), yang dapat berisi kerangka kerja pembelajaran mesin (ML) populer seperti TensorFlow, MXNet, PyTorch, atau lainnya.
- Memungkinkan Anda membawa kode atau algoritme khusus yang dikembangkan secara lokal ke Studio Amazon SageMaker notebook untuk iterasi cepat dan pelatihan model.
- Menghindari penundaan prapemrosesan yang disebabkan di Lambda saat membongkar paket penerapan.
- Menawarkan fleksibilitas untuk berintegrasi secara mulus dengan sistem internal.
- Kompatibilitas dan skalabilitas di masa mendatang memudahkan untuk mengonversi layanan menggunakan Docker daripada harus mengemas file .zip dalam fungsi Lambda.
- Mengurangi waktu penyelesaian untuk pipeline penerapan CI/CD.
- Memberikan keakraban Docker dalam tim dan kemudahan penggunaan.
- Menyediakan akses ke penyimpanan data melalui API dan runtime backend.
- Menawarkan dukungan yang lebih baik untuk campur tangan untuk setiap prapemrosesan atau pascapemrosesan yang Lambda akan memerlukan layanan komputasi terpisah untuk setiap proses (seperti pelatihan atau penerapan).
Ikhtisar solusi
Kategorisasi dan pelabelan email dukungan adalah langkah penting dalam proses dukungan pelanggan. Ini memungkinkan perusahaan untuk mengarahkan percakapan ke tim yang tepat, dan memahami pada tingkat tinggi tentang apa yang pelanggan mereka hubungi. Pelanggan bisnis Kustomer menangani ribuan percakapan setiap hari, sehingga mengklasifikasikan dalam skala besar adalah sebuah tantangan. Mengotomatiskan proses ini membantu agen menjadi lebih efektif dan memberikan dukungan yang lebih kohesif, dan membantu pelanggan mereka dengan menghubungkan mereka dengan orang yang tepat lebih cepat.
Diagram berikut menggambarkan arsitektur solusi:
Proses Klasifikasi Percakapan dimulai dengan pelanggan bisnis memberikan izin kepada Pelanggan untuk menyiapkan jalur pelatihan dan inferensi yang dapat membantu mereka dengan klasifikasi teks dan rekomendasi kontekstual. Kustomer memaparkan antarmuka pengguna kepada pelanggan mereka untuk memantau proses pelatihan dan inferensi, yang diimplementasikan menggunakan SageMaker bersama dengan model TensorFlow dan gambar Docker kustom. Proses membangun dan menggunakan pengklasifikasi dibagi menjadi lima alur kerja utama, yang dikoordinasikan oleh layanan pekerja yang berjalan di ECS Amazon. Untuk mengoordinasikan peristiwa saluran dan memicu pelatihan dan penerapan model, pekerja menggunakan Amazon SQS antrian dan terintegrasi langsung dengan SageMaker menggunakan Node.js SDK yang disediakan AWS. Alur kerjanya adalah:
- Ekspor data
- Preprocessing data
- Pelatihan
- Penyebaran
- Kesimpulan
Ekspor data
Proses ekspor data dijalankan sesuai permintaan dan dimulai dengan proses persetujuan dari pelanggan bisnis Kustomer untuk mengonfirmasi penggunaan data email untuk analisis. Data yang relevan dengan proses klasifikasi ditangkap melalui email awal yang diterima dari pelanggan akhir. Misalnya, email dukungan biasanya berisi pemikiran koheren lengkap tentang masalah dengan detail tentang masalah tersebut. Sebagai bagian dari proses ekspor, email dikumpulkan dari penyimpanan data (MongoDB dan Amazon OpenSearch) dan disimpan di Layanan Penyimpanan Sederhana Amazon (Amazon S3).
Preprocessing data
Tahap prapemrosesan data membersihkan kumpulan data untuk alur kerja pelatihan dan inferensi dengan menghapus tag HTML apa pun dari email pelanggan dan memasukkannya melalui beberapa langkah pembersihan dan sanitasi untuk mendeteksi HTML yang salah format. Proses ini termasuk penggunaan Memeluk Tokenizer dan transformer Wajah. Saat proses pembersihan selesai, token kustom tambahan yang diperlukan untuk pelatihan akan ditambahkan ke set data keluaran.
Selama tahap prapemrosesan, fungsi Lambda memanggil image Docker kustom. Gambar ini terdiri dari dasar ramping Python 3.8, the Klien Antarmuka Waktu Proses AWS Lambda Python, dan dependensi seperti JumlahPy dan Panda. Gambar Docker khusus disimpan di Registry Kontainer Elastis Amazon (Amazon ECR) dan kemudian diumpankan melalui pipa CI/CD untuk penerapan. Fungsi Lambda yang diterapkan mengambil sampel data untuk menghasilkan tiga set data berbeda per pengklasifikasi:
- Pelatihan โ Digunakan untuk proses pelatihan yang sebenarnya
- Pengesahan โ Digunakan untuk validasi selama proses pelatihan TensorFlow
- uji โ Digunakan menjelang akhir proses pelatihan untuk perbandingan model metrik
Set data keluaran yang dihasilkan adalah file acar Panda, yang disimpan di Amazon S3 untuk digunakan pada tahap pelatihan.
Pelatihan
Gambar pelatihan khusus Pelanggan menggunakan buruh pelabuhan yang dioptimalkan untuk GPU TensorFlow 2.7 gambar sebagai basis. Kode kustom, dependensi, dan model dasar disertakan sebelum gambar pelatihan buruh pelabuhan kustom diunggah ke ECR. Jenis instans P3 digunakan untuk proses pelatihan dan menggunakan gambar dasar yang dioptimalkan GPU membantu membuat proses pelatihan menjadi seefisien mungkin. Amazon SageMaker digunakan dengan gambar buruh pelabuhan khusus ini untuk melatih model TensorFlow yang kemudian disimpan di S3. Metrik khusus juga dihitung dan disimpan untuk membantu kemampuan tambahan seperti perbandingan model dan pelatihan ulang otomatis. Setelah tahap pelatihan selesai, pekerja AI akan diberi tahu dan pelanggan bisnis dapat memulai alur kerja penerapan.
Penyebaran
Untuk alur kerja penerapan, gambar inferensi buruh pelabuhan khusus dibuat menggunakan gambar dasar penyajian TensorFlow (dibuat khusus untuk inferensi cepat). Kode dan dependensi tambahan seperti numPy, Pandas, custom NL, dll. disertakan untuk menyediakan fungsionalitas tambahan, seperti input pemformatan & pembersihan sebelum inferensi. FastAPI juga disertakan sebagai bagian dari image kustom, dan digunakan untuk menyediakan titik akhir REST API untuk inferensi dan health check. SageMaker kemudian dikonfigurasi untuk menerapkan model TensorFlow yang disimpan di S3 dengan gambar inferensi ke instans AWS ml.c5 komputasi yang dioptimalkan untuk menghasilkan titik akhir inferensi berkinerja tinggi. Setiap titik akhir dibuat untuk digunakan oleh satu pelanggan untuk mengisolasi model dan data mereka.
Kesimpulan
Setelah alur kerja penerapan selesai, alur kerja inferensi mengambil alih. Semua email dukungan masuk pertama diteruskan melalui API inferensi untuk pengklasifikasi yang diterapkan khusus untuk pelanggan tersebut. Pengklasifikasi yang disebarkan kemudian melakukan klasifikasi teks pada setiap email ini, masing-masing menghasilkan label klasifikasi untuk pelanggan.
Kemungkinan peningkatan dan penyesuaian
Kustomer sedang mempertimbangkan untuk memperluas solusi dengan penyempurnaan berikut:
- Memeluk Wajah DLC โ Kustomer saat ini menggunakan gambar Docker dasar TensorFlow untuk tahap prapemrosesan data dan berencana untuk bermigrasi ke Memeluk Wadah Pembelajaran Dalam Wajah (DLC). Ini membantu Anda segera memulai model pelatihan, melewatkan proses rumit dalam membangun dan mengoptimalkan lingkungan pelatihan Anda dari awal. Untuk informasi lebih lanjut, lihat Memeluk Wajah di Amazon SageMaker.
- Umpan balik โ Anda dapat menerapkan loop umpan balik menggunakan pembelajaran aktif atau teknik pembelajaran penguatan untuk meningkatkan efisiensi model secara keseluruhan.
- Integrasi dengan sistem internal lainnya โ Kustomer menginginkan kemampuan untuk mengintegrasikan klasifikasi teks dengan sistem lain seperti Smart Suggestions, yang merupakan layanan Kustomer IQ lainnya yang melihat melalui ratusan pintasan dan menyarankan pintasan yang paling relevan dengan permintaan pelanggan, meningkatkan waktu respons dan kinerja agen.
Kesimpulan
Dalam posting ini, kami membahas bagaimana Kustomer menggunakan gambar Docker kustom untuk pelatihan dan inferensi SageMaker, yang memudahkan integrasi dan merampingkan proses. Kami mendemonstrasikan bagaimana Kustomer memanfaatkan Lambda dan SageMaker dengan gambar Docker khusus yang membantu mengimplementasikan proses klasifikasi teks dengan alur kerja prapemrosesan dan pascapemrosesan. Ini memberikan fleksibilitas untuk menggunakan gambar yang lebih besar untuk pembuatan model, pelatihan, dan inferensi. Dukungan image container untuk Lambda memungkinkan Anda menyesuaikan fungsi lebih banyak lagi, membuka banyak kasus penggunaan baru untuk ML tanpa server. Solusinya memanfaatkan beberapa layanan AWS, termasuk SageMaker, Lambda, gambar Docker, Amazon ECR, Amazon ECS, Amazon SQS, dan Amazon S3.
Jika Anda ingin mempelajari lebih lanjut tentang Kustomer, kami mendorong Anda untuk mengunjungi Situs web kustomer dan jelajahi mereka studi kasus.
Klik di sini untuk memulai perjalanan Anda dengan Amazon SageMaker. Untuk pengalaman langsung, Anda dapat merujuk ke Amazon SageMaker lokakarya.
Tentang Penulis
Umesh Kalaspurkar adalah Arsitek Solusi yang berbasis di New York untuk AWS. Dia membawa lebih dari 20 tahun pengalaman dalam desain dan pengiriman proyek Inovasi dan Transformasi Digital, di seluruh perusahaan dan perusahaan rintisan. Dia termotivasi dengan membantu pelanggan mengidentifikasi dan mengatasi tantangan. Di luar pekerjaan, Umesh menikmati menjadi seorang ayah, bermain ski, dan bepergian.
Ian Lantzi adalah insinyur Senior Software & Machine Learning untuk Kustomer dan berspesialisasi dalam mengambil tugas penelitian pembelajaran mesin dan mengubahnya menjadi layanan produksi.
Prasad Shetty adalah Arsitek Solusi yang berbasis di Boston untuk AWS. Dia telah membangun produk perangkat lunak dan telah memimpin modernisasi dan inovasi digital dalam produk dan layanan di seluruh perusahaan selama lebih dari 20 tahun. Dia bersemangat dalam mendorong strategi dan adopsi cloud, serta memanfaatkan teknologi untuk menciptakan pengalaman pelanggan yang luar biasa. Di waktu senggangnya, Prasad senang bersepeda dan jalan-jalan.
Jonathan Greifenberger adalah Manajer Akun Senior untuk AWS yang berbasis di New York dengan pengalaman industri TI selama 25 tahun. Jonathan memimpin tim yang membantu klien dari berbagai industri dan vertikal dalam perjalanan adopsi dan modernisasi cloud mereka.
- Coinsmart. Pertukaran Bitcoin dan Crypto Terbaik Eropa.
- Platoblockchain. Intelijen Metaverse Web3. Pengetahuan Diperkuat. AKSES GRATIS.
- CryptoHawk. Radar Altcoin. Uji Coba Gratis.
- Sumber: https://aws.amazon.com/blogs/machine-learning/how-kustomer-utilizes-custom-docker-images-amazon-sagemaker-to-build-a-text-classification-pipeline/
- "
- &
- 100
- 20 tahun
- 7
- Tentang Kami
- mengakses
- Akun
- di seluruh
- aktif
- Tambahan
- Adopsi
- Keuntungan
- keuntungan
- agen
- AI
- algoritma
- Semua
- Amazon
- analisis
- Lain
- api
- Lebah
- pendekatan
- arsitektur
- Otomatisasi
- AWS
- makhluk
- membangun
- Bangunan
- bisnis
- kemampuan
- kasus
- disebabkan
- menantang
- tantangan
- Cek
- klasifikasi
- Pembersihan
- awan
- kode
- komunikasi
- Perusahaan
- menghitung
- konsumen
- Wadah
- Wadah
- mengandung
- Konten
- Percakapan
- percakapan
- pengalaman pelanggan
- Layanan Pelanggan
- Customer Support
- pelanggan
- data
- hari
- keterlambatan
- pengiriman
- Permintaan
- penyebaran
- Mendesain
- dikembangkan
- digital
- penemuan
- Buruh pelabuhan
- penggerak
- Efektif
- efisiensi
- memungkinkan
- mendorong
- Titik akhir
- insinyur
- Enterprise
- peristiwa
- contoh
- memperluas
- pengalaman
- Pengalaman
- Menghadapi
- FAST
- Fed
- umpan balik
- Pertama
- keluwesan
- berikut
- fungsi
- fungsi
- menghasilkan
- Pemberian
- GPU
- besar
- Tamu
- tamu Post
- memiliki
- Kesehatan
- membantu
- membantu
- High
- Seterpercayaapakah Olymp Trade? Kesimpulan
- HTTPS
- Ratusan
- mengenali
- gambar
- melaksanakan
- diimplementasikan
- termasuk
- Termasuk
- Meningkatkan
- Pada meningkat
- industri
- industri
- informasi
- Innovation
- wawasan
- mengintegrasikan
- integrasi
- Cerdas
- maksud
- Antarmuka
- isu
- IT
- pelabelan
- Label
- besar
- lebih besar
- BELAJAR
- pengetahuan
- Dipimpin
- Tingkat
- memanfaatkan
- lokal
- mesin
- Mesin belajar
- Membuat
- manajer
- Metrik
- ML
- model
- model
- MongoDB
- paling
- NY
- teknik mengatur musik
- urutan
- organisasi
- Lainnya
- jika tidak
- Konsultan Ahli
- prestasi
- Platform
- Populer
- mungkin
- ramalan
- di harga
- Masalah
- proses
- Produk
- Produksi
- produktifitas
- Produk
- memprojeksikan
- memberikan
- menyediakan
- segera
- mengurangi
- membutuhkan
- wajib
- penelitian
- tanggapan
- ISTIRAHAT
- Rute
- Run
- berjalan
- Skalabilitas
- Skala
- SDK
- Tanpa Server
- layanan
- Layanan
- porsi
- set
- Sederhana
- Ukuran
- pintar
- So
- Perangkat lunak
- Solusi
- spesialisasi
- Secara khusus
- membagi
- Tahap
- awal
- Startups
- penyimpanan
- menyimpan
- toko
- Penyelarasan
- pengupasan
- studi
- besar
- mendukung
- sistem
- Berbicara
- tugas
- tim
- teknik
- Teknologi
- ribuan
- Melalui
- waktu
- Token
- Topik
- Pelatihan
- Transformasi
- memahami
- View
- Apa
- dalam
- kata
- Kerja
- tahun