Il s'agit d'un article invité par Ian Lantzy, ingénieur principal en logiciel et apprentissage machine de Kustomer, et l'équipe AWS Umesh Kalaspurkar, Prasad Shetty et Jonathan Greifenberger.
Selon les propres mots de Kustomer, « Kustomer est la plate-forme CRM SaaS omnicanal qui réinvente le service client d'entreprise pour offrir des expériences exceptionnelles. Construit avec une automatisation intelligente, nous évoluons pour répondre aux besoins de n'importe quel centre de contact et entreprise en unifiant les données provenant de plusieurs sources et en permettant aux entreprises de fournir un service et une assistance sans effort, cohérents et personnalisés via une vue chronologique unique.
Kustomer souhaitait pouvoir analyser rapidement de grands volumes de communications d'assistance pour ses clients professionnels (expérience client et organisations de services) et automatiser la découverte d'informations telles que l'intention du client final, le problème de service client et d'autres informations pertinentes liées au consommateur. La compréhension de ces caractéristiques peut aider les organisations CX à gérer des milliers d'e-mails d'assistance entrants en classant et en catégorisant automatiquement le contenu. Les leviers de Kutomer Amazon Sage Maker pour gérer l'analyse des communications de support entrantes via leur IA QI client Plate-forme. Le service de classification des conversations de Kustomer IQ est capable de contextualiser les conversations et d'automatiser les tâches autrement fastidieuses et répétitives, réduisant ainsi la distraction des agents et le coût global par contact. Ceci et les autres services IQ de Kustomer ont augmenté la productivité et l'automatisation pour ses clients professionnels.
Dans cet article, nous expliquons comment Kustomer utilise des images Docker personnalisées pour la formation et l'inférence SageMaker, ce qui facilite l'intégration et rationalise le processus. Avec cette approche, les clients professionnels de Kustomer classent automatiquement plus de 50 70 e-mails d'assistance chaque mois avec une précision allant jusqu'à XNUMX %.
Contexte et défis
Kustomer utilise un pipeline de classification de texte personnalisé pour son service de classification des conversations. Cela les aide à gérer des milliers de demandes par jour via une classification et une catégorisation automatiques utilisant la formation et l'orchestration d'inférence de SageMaker. Le moteur de formation Conversation Classification utilise des images Docker personnalisées pour traiter les données et former des modèles à l'aide de conversations historiques, puis prédit les sujets, catégories ou autres étiquettes personnalisées dont un agent particulier a besoin pour classer les conversations. Ensuite, le moteur de prédiction utilise les modèles formés avec une autre image docker personnalisée pour catégoriser les conversations, que les organisations utilisent pour automatiser les rapports ou acheminer les conversations vers une équipe spécifique en fonction de son sujet.
Le processus de catégorisation SageMaker commence par établir un pipeline de formation et d'inférence qui peut fournir une classification de texte et des recommandations contextuelles. Une configuration typique serait mise en œuvre avec des approches sans serveur telles que AWS Lambda pour le prétraitement et le post-traitement des données, car il nécessite un approvisionnement minimal avec un modèle de tarification à la demande efficace. Cependant, l'utilisation de SageMaker avec des dépendances telles que TensorFlow, NumPy et Pandas peut rapidement augmenter la taille du package de modèle, ce qui rend le processus de déploiement global lourd et difficile à gérer. Kustomer a utilisé des images Docker personnalisées pour surmonter ces défis.
Les images Docker personnalisées offrent des avantages substantiels :
- Permet des tailles de packages compressés plus importantes (plus de 10 Go), qui peuvent contenir des frameworks d'apprentissage automatique (ML) populaires tels que TensorFlow, MXNet, PyTorch ou autres.
- Vous permet d'apporter du code personnalisé ou des algorithmes développés localement à Amazon SageMakerStudio Notebooks pour une itération rapide et la formation de modèles.
- Évite les retards de prétraitement causés dans Lambda lors de la décompression des packages de déploiement.
- Offre la flexibilité nécessaire pour s'intégrer de manière transparente aux systèmes internes.
- La compatibilité et l'évolutivité futures facilitent la conversion d'un service à l'aide de Docker plutôt que d'avoir à empaqueter des fichiers .zip dans une fonction Lambda.
- Réduit le délai d'exécution d'un pipeline de déploiement CI/CD.
- Fournit une familiarité Docker au sein de l'équipe et une facilité d'utilisation.
- Fournit un accès aux magasins de données via des API et un runtime backend.
- Offre une meilleure prise en charge de l'intervention pour tout prétraitement ou post-traitement pour lequel Lambda nécessiterait un service de calcul distinct pour chaque processus (tel que la formation ou le déploiement).
Vue d'ensemble de la solution
La catégorisation et l'étiquetage des e-mails d'assistance constituent une étape critique du processus d'assistance client. Il permet aux entreprises d'acheminer les conversations vers les bonnes équipes et de comprendre à un niveau élevé les raisons pour lesquelles leurs clients les contactent. Les entreprises clientes de Kustomer gèrent des milliers de conversations chaque jour, donc la classification à grande échelle est un défi. L'automatisation de ce processus aide les agents à être plus efficaces et à fournir un support plus cohérent, et aide leurs clients en les mettant plus rapidement en contact avec les bonnes personnes.
Le schéma suivant illustre l'architecture de la solution :
Le processus de classification des conversations commence lorsque le client professionnel donne à Kustomer la permission de mettre en place un pipeline de formation et d'inférence qui peut l'aider avec la classification de texte et les recommandations contextuelles. Kustomer expose une interface utilisateur à ses clients pour surveiller le processus de formation et d'inférence, qui est mis en œuvre à l'aide de SageMaker avec des modèles TensorFlow et des images Docker personnalisées. Le processus de création et d'utilisation d'un classificateur est divisé en cinq flux de travail principaux, qui sont coordonnés par un service de travail exécuté sur Amazon ECS. Pour coordonner les événements du pipeline et déclencher la formation et le déploiement du modèle, l'agent utilise un SQS d'Amazon file d'attente et s'intègre directement à SageMaker à l'aide du SDK Node.js fourni par AWS. Les flux de travail sont :
- Exportation
- Pré-traitement des données
- Formation
- Déploiement
- Inférence
Exportation
Le processus d'exportation de données est exécuté à la demande et commence par un processus d'approbation du client commercial de Kustomer pour confirmer l'utilisation des données de courrier électronique à des fins d'analyse. Les données pertinentes pour le processus de classification sont capturées via l'e-mail initial reçu du client final. Par exemple, un e-mail d'assistance contient généralement la pensée complète et cohérente du problème avec des détails sur le problème. Dans le cadre du processus d'exportation, les e-mails sont rassemblés à partir du magasin de données (MongoDB et Amazon OpenSearch) et enregistré dans Service de stockage simple Amazon (Amazon S3).
Pré-traitement des données
L'étape de prétraitement des données nettoie l'ensemble de données pour les flux de travail de formation et d'inférence en supprimant toutes les balises HTML des e-mails des clients et en les faisant passer par plusieurs étapes de nettoyage et de désinfection pour détecter tout HTML malformé. Ce processus comprend l'utilisation de Tokenizers et transformateurs Hugging Face. Lorsque le processus de nettoyage est terminé, tous les jetons personnalisés supplémentaires requis pour la formation sont ajoutés à l'ensemble de données de sortie.
Au cours de l'étape de prétraitement, une fonction Lambda appelle une image Docker personnalisée. Cette image se compose d'une base mince Python 3.8, le Client d'interface d'exécution AWS Lambda Python, et des dépendances telles que NumPy ainsi que Pandas. L'image Docker personnalisée est stockée sur Registre des conteneurs élastiques Amazon (Amazon ECR), puis transmis via le pipeline CI/CD pour le déploiement. La fonction Lambda déployée échantillonne les données pour générer trois ensembles de données distincts par classifieur :
- Formation – Utilisé pour le processus de formation proprement dit
- Validation – Utilisé pour la validation pendant le processus de formation TensorFlow
- Teste – Utilisé vers la fin du processus de formation pour les comparaisons de modèles de métriques
Les ensembles de données de sortie générés sont des fichiers pickle Pandas, qui sont stockés dans Amazon S3 pour être utilisés par l'étape de formation.
Formation
L'image d'entraînement personnalisée de Kustomer utilise un docker optimisé pour le GPU TensorFlow 2.7 image comme base. Le code personnalisé, les dépendances et les modèles de base sont inclus avant que l'image de formation Docker personnalisée ne soit téléchargée sur ECR. Les types d'instances P3 sont utilisés pour le processus de formation et l'utilisation d'une image de base optimisée pour le GPU permet de rendre le processus de formation aussi efficace que possible. Amazon SageMaker est utilisé avec cette image docker personnalisée pour former des modèles TensorFlow qui sont ensuite stockés dans S3. Des métriques personnalisées sont également calculées et enregistrées pour aider avec des fonctionnalités supplémentaires telles que les comparaisons de modèles et le recyclage automatique. Une fois l'étape de formation terminée, le travailleur IA est averti et le client professionnel peut démarrer le workflow de déploiement.
Déploiement
Pour le workflow de déploiement, une image d'inférence Docker personnalisée est créée à l'aide d'une image de base de service TensorFlow (conçue spécifiquement pour une inférence rapide). Du code et des dépendances supplémentaires tels que numPy, Pandas, NL personnalisé, etc. sont inclus pour fournir des fonctionnalités supplémentaires, telles que le formatage et le nettoyage des entrées avant l'inférence. FastAPI est également inclus dans l'image personnalisée et est utilisé pour fournir les points de terminaison de l'API REST pour l'inférence et les vérifications de l'état. SageMaker est ensuite configuré pour déployer les modèles TensorFlow enregistrés dans S3 avec l'image d'inférence sur des instances AWS ml.c5 optimisées pour le calcul afin de générer des points de terminaison d'inférence hautes performances. Chaque point de terminaison est créé pour être utilisé par un seul client afin d'isoler ses modèles et ses données.
Inférence
Une fois le workflow de déploiement terminé, le workflow d'inférence prend le relais. Tous les premiers e-mails d'assistance entrants sont transmis via l'API d'inférence pour les classificateurs déployés spécifiques à ce client. Les classificateurs déployés effectuent ensuite une classification textuelle sur chacun de ces e-mails, chacun générant des étiquettes de classification pour le client.
Améliorations et personnalisations possibles
Kustomer envisage d'étendre la solution avec les améliorations suivantes :
- Contenus téléchargeables Hugging Face – Kustomer utilise actuellement les images Docker de base de TensorFlow pour l'étape de prétraitement des données et prévoit de migrer vers Conteneurs d'apprentissage profond (DLC) Hugging Face. Cela vous aide à commencer à former des modèles immédiatement, en sautant le processus compliqué de création et d'optimisation de vos environnements de formation à partir de zéro. Pour plus d'informations, voir Visage étreignant sur Amazon SageMaker.
- Boucle de rétroaction – Vous pouvez implémenter une boucle de rétroaction en utilisant des techniques d'apprentissage actif ou d'apprentissage par renforcement pour augmenter l'efficacité globale du modèle.
- Intégration avec d'autres systèmes internes – Kustomer souhaite pouvoir intégrer la classification de texte à d'autres systèmes tels que Smart Suggestions, qui est un autre service Kustomer IQ qui examine des centaines de raccourcis et suggère les raccourcis les plus pertinents pour une requête client, améliorant ainsi les temps de réponse et les performances des agents.
Conclusion
Dans cet article, nous avons expliqué comment Kustomer utilise des images Docker personnalisées pour la formation et l'inférence SageMaker, ce qui facilite l'intégration et rationalise le processus. Nous avons démontré comment Kustomer exploite Lambda et SageMaker avec des images Docker personnalisées qui aident à mettre en œuvre le processus de classification de texte avec des workflows de prétraitement et de post-traitement. Cela offre une flexibilité pour l'utilisation d'images plus grandes pour la création, la formation et l'inférence de modèles. La prise en charge des images de conteneurs pour Lambda vous permet de personnaliser encore plus votre fonction, ouvrant de nombreux nouveaux cas d'utilisation pour le ML sans serveur. La solution tire parti de plusieurs services AWS, notamment SageMaker, Lambda, les images Docker, Amazon ECR, Amazon ECS, Amazon SQS et Amazon S3.
Si vous souhaitez en savoir plus sur Kustomer, nous vous encourageons à visiter le Site Web client et explorez leur études de cas.
Cliquez ici pour commencer votre voyage avec Amazon SageMaker. Pour une expérience pratique, vous pouvez vous référer à Amazon SageMaker l'atelier.
À propos des auteurs
Umesh Kaspurkar est un architecte de solutions basé à New York pour AWS. Il apporte plus de 20 ans d'expérience dans la conception et la réalisation de projets d'innovation et de transformation numériques, dans des entreprises et des startups. Il est motivé à aider les clients à identifier et à surmonter les défis. En dehors du travail, Umesh aime être père, skier et voyager.
Ian Lantzy est un ingénieur principal en logiciel et en apprentissage automatique pour Kustomer et se spécialise dans la prise en charge des tâches de recherche en apprentissage automatique et leur transformation en services de production.
Prasad Shetty est un architecte de solutions basé à Boston pour AWS. Il a créé des produits logiciels et a dirigé la modernisation et l'innovation numérique des produits et services dans les entreprises pendant plus de 20 ans. Il est passionné par la stratégie et l'adoption du cloud, et par l'utilisation de la technologie pour créer des expériences client exceptionnelles. Pendant son temps libre, Prasad aime faire du vélo et voyager.
Jonathan Greifenberger est un responsable de compte senior basé à New York pour AWS avec 25 ans d'expérience dans l'industrie informatique. Jonathan dirige une équipe qui assiste des clients de divers secteurs et secteurs verticaux dans leur parcours d'adoption et de modernisation du cloud.
- Coinsmart. Le meilleur échange Bitcoin et Crypto d'Europe.
- Platoblockchain. Intelligence métaverse Web3. Connaissance amplifiée. ACCÈS LIBRE.
- CryptoHawk. Radar Altcoins. Essai gratuit.
- Source : https://aws.amazon.com/blogs/machine-learning/how-kustomer-utilizes-custom-docker-images-amazon-sagemaker-to-build-a-text-classification-pipeline/
- "
- &
- 100
- 20 ans
- 7
- Description
- accès
- Compte
- à travers
- infection
- Supplémentaire
- Adoption
- Avantage
- avantages
- agents
- AI
- algorithmes
- Tous
- Amazon
- selon une analyse de l’Université de Princeton
- Une autre
- api
- Apis
- une approche
- architecture
- Automation
- AWS
- va
- construire
- Développement
- la performance des entreprises
- capacités
- cas
- causé
- challenge
- globaux
- Contrôles
- classification
- Nettoyage
- le cloud
- code
- Les communications
- Sociétés
- calcul
- consommateur
- Contenant
- Conteneurs
- contient
- contenu
- Conversation
- conversations
- expérience client
- Service à la clientèle
- Support à la clientèle
- Clients
- données
- journée
- retards
- page de livraison.
- Demande
- déploiement
- Conception
- développé
- numérique
- découverte
- Docker
- conduite
- Efficace
- efficace
- permettant
- encourager
- Endpoint
- ingénieur
- Entreprise
- événements
- exemple
- expansion
- Découvrez
- Expériences
- Visage
- RAPIDE
- Fed
- Réactions
- Prénom
- Flexibilité
- Abonnement
- fonction
- générer
- Don
- GPU
- l'
- GUEST
- Invité Message
- ayant
- Santé
- aider
- aide
- Haute
- Comment
- HTTPS
- Des centaines
- identifier
- image
- Mettre en oeuvre
- mis en œuvre
- inclus
- Y compris
- Améliore
- increased
- secteurs
- industrie
- d'information
- Innovation
- idées.
- intégrer
- l'intégration
- Intelligent
- intention
- Interfaces
- aide
- IT
- l'étiquetage
- Etiquettes
- gros
- plus importantes
- APPRENTISSAGE
- apprentissage
- LED
- Niveau
- les leviers
- localement
- click
- machine learning
- Fabrication
- manager
- Métrique
- ML
- modèle
- numériques jumeaux (digital twin models)
- MongoDB
- (en fait, presque toutes)
- New York
- orchestration
- de commander
- organisations
- Autre
- autrement
- Personnes
- performant
- plateforme
- Populaire
- possible
- prédiction
- établissement des prix
- Problème
- processus
- Produit
- Vidéo
- productivité
- Produits
- projets
- fournir
- fournit
- vite.
- réduire
- exigent
- conditions
- un article
- réponse
- REST
- Itinéraire
- Courir
- pour le running
- Évolutivité
- Escaliers intérieurs
- Sdk
- Sans serveur
- service
- Services
- service
- set
- étapes
- Taille
- smart
- So
- Logiciels
- Solutions
- spécialise
- spécifiquement
- scission
- Étape
- Commencer
- Startups
- storage
- Boutique
- STORES
- de Marketing
- décapage
- et le cannabis
- Ces
- Support
- Système
- Discours
- tâches
- équipe
- techniques
- Technologie
- milliers
- Avec
- fiable
- Tokens
- Les sujets
- Formation
- De La Carrosserie
- comprendre
- Voir
- Quoi
- dans les
- des mots
- Activités:
- années