Tämä on Kustomerin ohjelmisto- ja koneoppimisinsinöörin Ian Lantzyn ja AWS-tiimin Umesh Kalaspurkarin, Prasad Shettyn ja Jonathan Greifenbergerin vieraspostaus.
Kustomerin omin sanoin "Kustomer on monikanavainen SaaS CRM -alusta, joka muuttaa yritysasiakaspalvelun tarjoamaan ainutlaatuisia kokemuksia. Älykkään automaation avulla skaalaamme vastaamaan minkä tahansa yhteyskeskuksen ja yrityksen tarpeisiin yhdistämällä tiedot useista lähteistä ja antamalla yrityksille mahdollisuuden tarjota vaivatonta, johdonmukaista ja yksilöllistä palvelua ja tukea yhden aikajananäkymän kautta.
Kustomer halusi mahdollisuuden analysoida nopeasti suuria määriä tukiviestintää yritysasiakkailleen – asiakaskokemus- ja palveluorganisaatioille – ja automatisoida tiedon, kuten loppuasiakkaan tarkoituksen, asiakaspalveluongelman ja muiden kuluttajaan liittyvien olennaisten oivallusten, löytämisen. Näiden ominaisuuksien ymmärtäminen voi auttaa CX-organisaatioita hallitsemaan tuhansia saapuvia tukisähköposteja luokittelemalla ja luokittelemalla sisällön automaattisesti. Kustomer hyödyntää Amazon Sage Maker hallita saapuvan tukiviestinnän analysointia tekoälypohjaisensa kautta Kustomer IQ alusta. Kustomer IQ:n keskusteluluokittelupalvelu pystyy kohdistamaan keskustelut asiayhteyteen ja automatisoimaan muuten ikäviä ja toistuvia tehtäviä, mikä vähentää välittäjän häiriötekijöitä ja kokonaiskustannuksia kontaktia kohden. Tämä ja Kustomerin muut IQ-palvelut ovat lisänneet yritysasiakkaiden tuottavuutta ja automaatiota.
Tässä viestissä puhumme siitä, kuinka Kustomer käyttää mukautettuja Docker-kuvia SageMaker-koulutukseen ja -johtopäätöksiin, mikä helpottaa integrointia ja virtaviivaistaa prosessia. Tällä lähestymistavalla Kustomerin yritysasiakkaat luokittelevat automaattisesti yli 50 70 tukisähköpostia kuukaudessa jopa XNUMX % tarkkuudella.
Taustaa ja haasteita
Kustomer käyttää mukautettua tekstin luokitteluputkia keskusteluluokituspalvelussaan. Tämä auttaa heitä hallitsemaan tuhansia pyyntöjä päivässä automaattisen luokittelun ja luokittelun avulla käyttämällä SageMakerin koulutusta ja johtopäätösten järjestämistä. Keskustelujen luokittelu -koulutusmoottori käyttää mukautettuja Docker-kuvia tietojen käsittelemiseen ja mallien kouluttamiseen historiallisten keskustelujen avulla ja ennustaa sitten aiheet, luokat tai muut mukautetut tunnisteet, joita tietty agentti tarvitsee voidakseen luokitella keskustelut. Sitten ennustemoottori käyttää koulutettuja malleja toisella mukautetulla telakointikuvalla keskustelujen luokitteluun, jonka avulla organisaatiot automatisoivat raportoinnin tai reitittävät keskustelut tietylle tiimille sen aiheen perusteella.
SageMakerin luokitteluprosessi alkaa luomalla koulutus- ja päätelmäputki, joka voi tarjota tekstin luokittelua ja kontekstuaalisia suosituksia. Tyypillinen asennus toteutettaisiin palvelimettomilla lähestymistavoilla, kuten AWS Lambda tietojen esi- ja jälkikäsittelyyn, koska sillä on minimaalinen provisiointivaatimus tehokkaalla on-demand-hinnoittelumallilla. SageMakerin käyttäminen riippuvuuksien, kuten TensorFlow, NumPy ja Pandas, kanssa voi kuitenkin nopeasti kasvattaa mallipaketin kokoa, mikä tekee yleisestä käyttöönottoprosessista hankalan ja vaikeasti hallittavan. Kustomer käytti mukautettuja Docker-kuvia voittaakseen nämä haasteet.
Mukautetut Docker-kuvat tarjoavat huomattavia etuja:
- Mahdollistaa suuremmat pakatut pakettikoot (yli 10 Gt), jotka voivat sisältää suosittuja koneoppimiskehyksiä (ML), kuten TensorFlow, MXNet, PyTorch tai muita.
- Voit tuoda mukautettua koodia tai paikallisesti kehitettyjä algoritmeja Amazon SageMaker Studio muistikirjat nopeaan iterointiin ja mallikoulutukseen.
- Välttää Lambdan aiheuttamat esikäsittelyviiveet käyttöönottopaketteja purettaessa.
- Tarjoaa joustavuuden integroida saumattomasti sisäisiin järjestelmiin.
- Tulevaisuuden yhteensopivuus ja skaalautuvuus helpottavat palvelun muuntamista Dockerin avulla sen sijaan, että joutuisit pakamaan .zip-tiedostoja Lambda-toimintoon.
- Lyhentää CI/CD-käyttöönottoputkiston läpimenoaikaa.
- Tarjoaa Dockerin tuntemusta tiimissä ja helppokäyttöisyyttä.
- Tarjoaa pääsyn tietovarastoihin sovellusliittymien ja tausta-ajon aikana.
- Tarjoaa paremman tuen puuttumiseen sellaisiin esi- tai jälkikäsittelyihin, joissa Lambda vaatisi erillisen laskentapalvelun jokaista prosessia varten (kuten koulutus tai käyttöönotto).
Ratkaisun yleiskatsaus
Tukiviestien luokittelu ja merkitseminen on kriittinen vaihe asiakastukiprosessissa. Sen avulla yritykset voivat reitittää keskustelut oikeille tiimeille ja ymmärtää korkealla tasolla, mistä heidän asiakkaat ovat heihin yhteydessä. Kustomerin yritysasiakkaat käsittelevät tuhansia keskusteluja päivittäin, joten mittakaavassa luokittelu on haaste. Tämän prosessin automatisointi auttaa agentteja olemaan tehokkaampia ja tarjoamaan yhtenäisempää tukea sekä auttaa asiakkaitaan yhdistämään heidät oikeisiin ihmisiin nopeammin.
Seuraava kaavio havainnollistaa ratkaisun arkkitehtuuria:
Keskusteluluokitusprosessi alkaa siitä, että yritysasiakas antaa Kustomerille luvan perustaa koulutus- ja päätelmäputki, joka voi auttaa häntä tekstiluokittelussa ja asiayhteyteen liittyvissä suosituksissa. Kustomer esittelee asiakkailleen käyttöliittymän koulutus- ja päättelyprosessia varten, joka toteutetaan SageMakerilla TensorFlow-mallien ja mukautettujen Docker-kuvien kanssa. Luokittelijan rakentamis- ja käyttöprosessi on jaettu viiteen päätyönkulkuun, joita koordinoi työntekijäpalvelu, joka on käynnissä Amazon ECS. Työntekijä käyttää putkitapahtumien koordinointia ja mallin koulutuksen ja käyttöönoton käynnistämistä Amazonin SQS jonoon ja integroituu suoraan SageMakeriin AWS:n toimittaman Node.js SDK:n avulla. Työnkulkuja ovat:
- Tietojen vienti
- Tietojen esikäsittely
- koulutus
- käyttöönoton
- Päättely
Tietojen vienti
Tiedonvientiprosessi ajetaan pyynnöstä ja alkaa Kustomerin yritysasiakkaan hyväksynnästä vahvistaakseen sähköpostitietojen käytön analysointiin. Luokitteluprosessiin liittyvät tiedot kerätään loppuasiakkaalta saadun ensimmäisen sähköpostin kautta. Esimerkiksi tukisähköposti sisältää yleensä täydellisen johdonmukaisen ajatuksen ongelmasta sekä ongelman yksityiskohdat. Osana vientiprosessia sähköpostit kerätään tietovarastosta (MongoDB ja Amazon OpenSearch) ja tallennettu Amazonin yksinkertainen tallennuspalvelu (Amazon S3).
Tietojen esikäsittely
Tietojen esikäsittelyvaihe puhdistaa tietojoukon koulutusta ja päättelytyönkulkua varten poistamalla mahdolliset HTML-tunnisteet asiakkaiden sähköposteista ja syöttämällä ne useiden puhdistus- ja desinfiointivaiheiden kautta virheellisen HTML-koodin havaitsemiseksi. Tämä prosessi sisältää käytön Hugging Face tokenisers ja muuntajat. Kun puhdistusprosessi on valmis, kaikki koulutukseen tarvittavat mukautetut lisätunnisteet lisätään tulostietojoukkoon.
Esikäsittelyvaiheen aikana Lambda-funktio kutsuu mukautetun Docker-kuvan. Tämä kuva koostuu Python 3.8 ohuesta pohjasta AWS Lambda Python Runtime Interface Client, ja riippuvuudet, kuten nuhjuinen ja Panda. Mukautettu Docker-kuva tallennetaan Amazonin elastisten säiliörekisteri (Amazon ECR) ja syötetään sitten CI/CD-putken kautta käyttöönottoa varten. Käytetty Lambda-funktio ottaa näytteitä tiedoista ja luo kolme erillistä tietojoukkoa luokittelijaa kohti:
- koulutus – Käytetään varsinaiseen harjoitusprosessiin
- Validation – Käytetään validointiin TensorFlow-harjoitusprosessin aikana
- Testi – Käytetään koulutusprosessin loppupuolella metriikkamallien vertailuun
Luodut lähtötietojoukot ovat Pandasin suolakurkkutiedostoja, jotka on tallennettu Amazon S3:een koulutusvaiheen käyttöön.
koulutus
Kustomerin mukautettu harjoituskuva käyttää TensorFlow 2.7 GPU -optimoitua telakointiasemaa kuva pohjana. Mukautettu koodi, riippuvuudet ja perusmallit sisällytetään ennen mukautetun telakointiaseman harjoituskuvan lataamista ECR:ään. P3-instanssityyppejä käytetään harjoitusprosessissa ja GPU-optimoidun peruskuvan käyttö auttaa tekemään koulutusprosessista mahdollisimman tehokkaan. Amazon SageMakeria käytetään tämän mukautetun telakointikuvan kanssa TensorFlow-mallien kouluttamiseen, jotka sitten tallennetaan S3:een. Myös mukautettuja mittareita lasketaan ja tallennetaan lisäominaisuuksien, kuten mallien vertailun ja automaattisen uudelleenkoulutuksen, helpottamiseksi. Kun koulutusvaihe on suoritettu, tekoälytyöntekijä saa ilmoituksen ja yritysasiakas voi aloittaa käyttöönoton työnkulun.
käyttöönoton
Käyttöönoton työnkulkua varten luodaan mukautettu telakointiaseman johtopäätös käyttämällä TensorFlow-pohjaista peruskuvaa (rakennettu erityisesti nopeaa päättelyä varten). Mukana on lisäkoodia ja riippuvuuksia, kuten numPy, Pandas, mukautettu NL jne., jotka tarjoavat lisätoimintoja, kuten alustus- ja puhdistustulot ennen päättelyä. FastAPI sisältyy myös osana mukautettua kuvaa, ja sitä käytetään tarjoamaan REST API -päätepisteitä päätelmiä ja kuntotarkastuksia varten. SageMaker määritetään sitten ottamaan käyttöön S3:een tallennetut TensorFlow-mallit, joissa on päätelmäkuva, laskennallisiin optimoituihin ml.c5 AWS -esiintymiin tehokkaiden päättelypäätepisteiden luomiseksi. Jokainen päätepiste luodaan yksittäisen asiakkaan käyttöön mallin ja tietonsa eristämiseksi.
Päättely
Kun käyttöönottotyönkulku on valmis, päättelytyönkulku ottaa ohjat käsiinsä. Kaikki ensimmäiset saapuvat tukisähköpostit välitetään päättely-API:n kautta kyseiselle asiakkaalle määritettyjä luokituksia varten. Käytetyt luokittelijat suorittavat sitten tekstiluokituksen jokaiselle näistä sähköpostiviesteistä, ja jokainen luo luokitustunnisteet asiakkaalle.
Mahdolliset parannukset ja mukautukset
Kustomer harkitsee ratkaisun laajentamista seuraavilla parannuksilla:
- Hugging Face DLC:t – Kustomer käyttää tällä hetkellä TensorFlow'n Docker-peruskuvia tietojen esikäsittelyvaiheessa ja suunnittelee siirtyvänsä Hugging Face Deep Learning Containers (DLC). Tämä auttaa sinua aloittamaan harjoitusmallit välittömästi, ohittaen monimutkaisen harjoitusympäristöjen rakentamis- ja optimointiprosessin alusta alkaen. Katso lisätietoja Halaavat kasvot Amazon SageMakerissa.
- Palaute silmukka – Voit toteuttaa palautesilmukan aktiivisella oppimis- tai vahvistusoppimistekniikoilla mallin kokonaistehokkuuden lisäämiseksi.
- Integrointi muihin sisäisiin järjestelmiin – Kustomer haluaa mahdollisuuden integroida tekstiluokittelu muihin järjestelmiin, kuten Smart Suggestions, joka on toinen Kustomer IQ -palvelu, joka käy läpi satoja pikakuvakkeita ja ehdottaa asiakkaan kyselyn kannalta oleellisimmat pikakuvakkeet, mikä parantaa agentin vastausaikoja ja suorituskykyä.
Yhteenveto
Tässä viestissä keskustelimme siitä, kuinka Kustomer käyttää mukautettuja Docker-kuvia SageMaker-koulutukseen ja -johtopäätöksiin, mikä helpottaa integrointia ja virtaviivaistaa prosessia. Osoitimme, kuinka Kustomer hyödyntää Lambdaa ja SageMakeria mukautetuilla Docker-kuvilla, jotka auttavat toteuttamaan tekstin luokitteluprosessin esi- ja jälkikäsittelytyönkuluilla. Tämä tarjoaa joustavuutta suurempien kuvien käyttämiseen mallin luomiseen, koulutukseen ja päättelyyn. Lambdan säilön kuvatuki mahdollistaa toimintojen mukauttamisen entisestään, mikä avaa monia uusia käyttötapauksia palvelimettomalle ML:lle. Ratkaisu hyödyntää useita AWS-palveluita, mukaan lukien SageMaker, Lambda, Docker images, Amazon ECR, Amazon ECS, Amazon SQS ja Amazon S3.
Jos haluat oppia lisää Kustomerista, suosittelemme vierailemaan osoitteessa Kustomer sivusto ja tutkia niitä tapaustutkimuksia.
Napauta tätä aloittaaksesi matkasi Amazon SageMakerin kanssa. Käytännön kokemuksen saamiseksi voit viitata Amazon SageMakeriin työpaja.
Tietoja Tekijät
Umesh Kalaspurkar on New Yorkissa toimiva ratkaisuarkkitehti AWS:lle. Hän tuo yli 20 vuoden kokemuksen digitaalisten innovaatio- ja transformaatioprojektien suunnittelusta ja toteuttamisesta yrityksissä ja startupeissa. Häntä motivoi auttaa asiakkaita tunnistamaan ja voittamaan haasteita. Työn ulkopuolella Umesh nauttii isänä olemisesta, hiihtämisestä ja matkustamisesta.
Ian Lantzy on Kustomerin Senior Software & Machine Learning -insinööri ja on erikoistunut koneoppimisen tutkimustehtäviin ja niiden muuntamiseen tuotantopalveluiksi.
Prasad Shetty on Bostonissa toimiva AWS:n ratkaisuarkkitehti. Hän on rakentanut ohjelmistotuotteita ja johtanut modernisoivia ja digitaalisia innovaatioita tuotteissa ja palveluissa yli 20 vuoden ajan. Hän on intohimoinen pilvistrategian ja omaksumisen ohjaamiseen sekä teknologian hyödyntämiseen loistavien asiakaskokemusten luomiseksi. Vapaa-ajallaan Prasad nauttii pyöräilystä ja matkustamisesta.
Jonathan Greifenberger on New Yorkissa toimiva AWS:n Senior Account Manager, jolla on 25 vuoden kokemus IT-alalta. Jonathan johtaa tiimiä, joka auttaa asiakkaita eri toimialoilla ja toimialoilla heidän pilvipalveluiden käyttöönotto- ja modernisointimatkalla.
- Coinsmart. Euroopan paras Bitcoin- ja kryptopörssi.
- Platoblockchain. Web3 Metaverse Intelligence. Tietoa laajennettu. VAPAA PÄÄSY.
- CryptoHawk. Altcoinin tutka. Ilmainen kokeilu.
- Lähde: https://aws.amazon.com/blogs/machine-learning/how-kustomer-utilizes-custom-docker-images-amazon-sagemaker-to-build-a-text-classification-pipeline/
- "
- &
- 100
- 20 vuotta
- 7
- Meistä
- pääsy
- Tili
- poikki
- aktiivinen
- lisä-
- Hyväksyminen
- Etu
- etuja
- aineet
- AI
- algoritmit
- Kaikki
- Amazon
- analyysi
- Toinen
- api
- API
- lähestymistapa
- arkkitehtuuri
- Automaatio
- AWS
- ovat
- rakentaa
- Rakentaminen
- liiketoiminta
- kyvyt
- tapauksissa
- aiheutti
- haaste
- haasteet
- Tarkastukset
- luokittelu
- Siivous
- pilvi
- koodi
- Yhteydenpito
- Yritykset
- Laskea
- kuluttaja
- Kontti
- Kontit
- sisältää
- pitoisuus
- Keskustelu
- keskustelut
- asiakaskokemus
- Asiakaspalvelu
- Asiakaspalvelu
- Asiakkaat
- tiedot
- päivä
- viiveet
- toimitus
- Kysyntä
- käyttöönotto
- Malli
- kehitetty
- digitaalinen
- löytö
- Satamatyöläinen
- ajo
- Tehokas
- tehokkuus
- mahdollistaa
- kannustaa
- päätepiste
- insinööri
- yritys
- Tapahtumat
- esimerkki
- laajenee
- experience
- Elämykset
- Kasvot
- FAST
- Fed
- palaute
- Etunimi
- Joustavuus
- jälkeen
- toiminto
- toiminnallisuus
- tuottaa
- Antaminen
- GPU
- suuri
- vieras
- vieras Lähetä
- ottaa
- terveys
- auttaa
- auttaa
- Korkea
- Miten
- HTTPS
- Sadat
- tunnistaa
- kuva
- toteuttaa
- täytäntöön
- mukana
- Mukaan lukien
- Kasvaa
- kasvoi
- teollisuuden
- teollisuus
- tiedot
- Innovaatio
- oivalluksia
- yhdistää
- integraatio
- Älykäs
- tahallisuus
- liitäntä
- kysymys
- IT
- merkinnät
- tarrat
- suuri
- suurempi
- OPPIA
- oppiminen
- Led
- Taso
- vipusuhteita
- paikallisesti
- kone
- koneoppiminen
- Tekeminen
- johtaja
- Metrics
- ML
- malli
- mallit
- MongoDB
- eniten
- New York
- orkestrointi
- tilata
- organisaatioiden
- Muut
- muuten
- Ihmiset
- suorituskyky
- foorumi
- Suosittu
- mahdollinen
- ennustus
- hinnoittelu
- Ongelma
- prosessi
- Tuotteet
- tuotanto
- tuottavuus
- Tuotteemme
- hankkeet
- toimittaa
- tarjoaa
- nopeasti
- vähentämällä
- edellyttää
- tarvitaan
- tutkimus
- vastaus
- REST
- Reitti
- ajaa
- juoksu
- skaalautuvuus
- Asteikko
- sdk
- serverless
- palvelu
- Palvelut
- palvelevat
- setti
- Yksinkertainen
- Koko
- fiksu
- So
- Tuotteemme
- Ratkaisumme
- erikoistunut
- erityisesti
- jakaa
- Vaihe
- Alkaa
- Startups
- Levytila
- verkkokaupasta
- varastot
- Strategia
- strippaus
- opinnot
- merkittävä
- tuki
- järjestelmät
- Puhua
- tehtävät
- joukkue-
- tekniikat
- Elektroniikka
- tuhansia
- Kautta
- aika
- tokens
- Aiheet
- koulutus
- Muutos
- ymmärtää
- Näytä
- Mitä
- sisällä
- sanoja
- Referenssit
- vuotta