Esta es una publicación invitada del ingeniero sénior de software y aprendizaje automático de Kustomer, Ian Lantzy, y el equipo de AWS Umesh Kalaspurkar, Prasad Shetty y Jonathan Greifenberger.
En las propias palabras de Kustomer, “Kustomer es la plataforma SaaS CRM omnicanal que reinventa el servicio al cliente empresarial para brindar experiencias sobresalientes. Construido con automatización inteligente, escalamos para satisfacer las necesidades de cualquier centro de contacto y negocio al unificar datos de múltiples fuentes y permitir que las empresas brinden un servicio y soporte sin esfuerzo, consistente y personalizado a través de una sola vista de línea de tiempo”.
Kustomer quería la capacidad de analizar rápidamente grandes volúmenes de comunicaciones de soporte para sus clientes comerciales (organizaciones de servicio y experiencia del cliente) y automatizar el descubrimiento de información como la intención del cliente final, el problema del servicio al cliente y otros conocimientos relevantes relacionados con el consumidor. Comprender estas características puede ayudar a las organizaciones de CX a administrar miles de correos electrónicos de soporte entrantes clasificando y categorizando automáticamente el contenido. Apalancamiento del cliente Amazon SageMaker para gestionar el análisis de las comunicaciones de soporte entrantes a través de su AI basado CI del cliente plataforma. El servicio de clasificación de conversaciones de Kustomer IQ es capaz de contextualizar conversaciones y automatizar tareas repetitivas y tediosas, lo que reduce la distracción de los agentes y el costo total por contacto. Este y otros servicios de IQ de Kustomer han aumentado la productividad y la automatización para sus clientes comerciales.
En esta publicación, hablamos sobre cómo Kustomer usa imágenes de Docker personalizadas para el entrenamiento y la inferencia de SageMaker, lo que facilita la integración y agiliza el proceso. Con este enfoque, los clientes comerciales de Kustomer clasifican automáticamente más de 50 70 correos electrónicos de soporte cada mes con una precisión de hasta el XNUMX %.
Antecedentes y desafíos
Kustomer utiliza una canalización de clasificación de texto personalizada para su servicio de clasificación de conversaciones. Esto les ayuda a gestionar miles de solicitudes al día a través de la clasificación y categorización automáticas utilizando la orquestación de formación e inferencia de SageMaker. El motor de entrenamiento de clasificación de conversaciones usa imágenes de Docker personalizadas para procesar datos y entrenar modelos usando conversaciones históricas y luego predice los temas, categorías u otras etiquetas personalizadas que un agente en particular necesita para clasificar las conversaciones. Luego, el motor de predicción utiliza los modelos entrenados con otra imagen de la ventana acoplable personalizada para categorizar las conversaciones, que las organizaciones usan para automatizar los informes o enrutar las conversaciones a un equipo específico en función de su tema.
El proceso de categorización de SageMaker comienza con el establecimiento de una canalización de inferencia y capacitación que puede proporcionar clasificación de texto y recomendaciones contextuales. Una configuración típica se implementaría con enfoques sin servidor como AWS Lambda para el preprocesamiento y posprocesamiento de datos porque tiene un requisito de aprovisionamiento mínimo con un modelo de precios bajo demanda efectivo. Sin embargo, el uso de SageMaker con dependencias como TensorFlow, NumPy y Pandas puede aumentar rápidamente el tamaño del paquete del modelo, lo que hace que el proceso de implementación general sea engorroso y difícil de administrar. Kustomer usó imágenes de Docker personalizadas para superar estos desafíos.
Las imágenes personalizadas de Docker brindan ventajas sustanciales:
- Permite tamaños de paquetes comprimidos más grandes (más de 10 GB), que pueden contener marcos populares de aprendizaje automático (ML) como TensorFlow, MXNet, PyTorch u otros.
- Le permite traer código personalizado o algoritmos desarrollados localmente para Estudio Amazon SageMaker cuadernos para iteraciones rápidas y entrenamiento de modelos.
- Evita los retrasos de preprocesamiento causados en Lambda al desempaquetar los paquetes de implementación.
- Ofrece flexibilidad para integrarse perfectamente con los sistemas internos.
- La compatibilidad y la escalabilidad futuras facilitan la conversión de un servicio mediante Docker en lugar de tener que empaquetar archivos .zip en una función Lambda.
- Reduce el tiempo de respuesta para una canalización de implementación de CI/CD.
- Proporciona familiaridad con Docker dentro del equipo y facilidad de uso.
- Proporciona acceso a almacenes de datos a través de API y un tiempo de ejecución de back-end.
- Ofrece un mejor soporte para intervenir en cualquier preprocesamiento o posprocesamiento en el que Lambda requiera un servicio de cómputo independiente para cada proceso (como capacitación o implementación).
Resumen de la solución
La categorización y el etiquetado de los correos electrónicos de soporte es un paso crítico en el proceso de soporte al cliente. Permite a las empresas enrutar conversaciones a los equipos correctos y comprender a un alto nivel por qué los contactan sus clientes. Los clientes comerciales de Kustomer manejan miles de conversaciones todos los días, por lo que clasificar a escala es un desafío. La automatización de este proceso ayuda a los agentes a ser más efectivos y brindar un soporte más coherente, y ayuda a sus clientes al conectarlos con las personas adecuadas más rápido.
El siguiente diagrama ilustra la arquitectura de la solución:
El proceso de clasificación de conversaciones comienza cuando el cliente comercial otorga permiso a Kustomer para configurar una canalización de capacitación e inferencia que puede ayudarlos con la clasificación de texto y las recomendaciones contextuales. Kustomer expone una interfaz de usuario a sus clientes para monitorear el proceso de capacitación e inferencia, que se implementa mediante SageMaker junto con modelos de TensorFlow e imágenes de Docker personalizadas. El proceso de creación y uso de un clasificador se divide en cinco flujos de trabajo principales, que están coordinados por un servicio de trabajador que se ejecuta en Amazon ECS. Para coordinar los eventos de canalización y desencadenar el entrenamiento y la implementación del modelo, el trabajador utiliza un AmazonSQS cola y se integra directamente con SageMaker mediante el SDK de Node.js proporcionado por AWS. Los flujos de trabajo son:
- Exportación de datos
- Preprocesamiento de datos
- Formación
- Despliegue
- Inferencia
Exportación de datos
El proceso de exportación de datos se ejecuta bajo demanda y comienza con un proceso de aprobación del cliente comercial de Kustomer para confirmar el uso de datos de correo electrónico para el análisis. Los datos relevantes para el proceso de clasificación se capturan a través del correo electrónico inicial recibido del cliente final. Por ejemplo, un correo electrónico de soporte normalmente contiene el pensamiento coherente completo del problema con detalles sobre el problema. Como parte del proceso de exportación, los correos electrónicos se recopilan del almacén de datos (MongoDB y Búsqueda abierta de Amazon) y guardado en Servicio de almacenamiento simple de Amazon (Amazon S3).
Preprocesamiento de datos
La etapa de preprocesamiento de datos limpia el conjunto de datos para los flujos de trabajo de capacitación e inferencia eliminando las etiquetas HTML de los correos electrónicos de los clientes y alimentándolos a través de múltiples pasos de limpieza y desinfección para detectar cualquier HTML mal formado. Este proceso incluye el uso de Tokenizadores y transformadores Hugging Face. Cuando se completa el proceso de limpieza, cualquier token personalizado adicional requerido para el entrenamiento se agrega al conjunto de datos de salida.
Durante la etapa de preprocesamiento, una función de Lambda invoca una imagen de Docker personalizada. Esta imagen consta de una base delgada de Python 3.8, la Cliente de interfaz de tiempo de ejecución de AWS Lambda Pythony dependencias como NumPy y pandas. La imagen Docker personalizada se almacena en Registro de contenedores elásticos de Amazon (Amazon ECR) y luego se alimenta a través de la canalización de CI/CD para su implementación. La función Lambda implementada muestrea los datos para generar tres conjuntos de datos distintos por clasificador:
- Formación – Utilizado para el proceso de entrenamiento real
- Validación – Usado para la validación durante el proceso de entrenamiento de TensorFlow
- Probar – Utilizado hacia el final del proceso de entrenamiento para comparaciones de modelos de métricas
Los conjuntos de datos de salida generados son archivos pickle de Pandas, que se almacenan en Amazon S3 para que los utilice la etapa de entrenamiento.
Formación
La imagen de entrenamiento personalizada de Kustomer utiliza una ventana acoplable optimizada para GPU TensorFlow 2.7 imagen como base El código personalizado, las dependencias y los modelos base se incluyen antes de cargar la imagen de entrenamiento de la ventana acoplable personalizada en ECR. Los tipos de instancias P3 se utilizan para el proceso de entrenamiento y el uso de una imagen base optimizada para GPU ayuda a que el proceso de entrenamiento sea lo más eficiente posible. Amazon SageMaker se usa con esta imagen acoplable personalizada para entrenar modelos de TensorFlow que luego se almacenan en S3. Las métricas personalizadas también se calculan y guardan para ayudar con capacidades adicionales, como comparaciones de modelos y reentrenamiento automático. Una vez que se completa la etapa de capacitación, se notifica al trabajador de IA y el cliente comercial puede iniciar el flujo de trabajo de implementación.
Despliegue
Para el flujo de trabajo de implementación, se crea una imagen de inferencia de ventana acoplable personalizada utilizando una imagen base de servicio de TensorFlow (creada específicamente para una inferencia rápida). Se incluyen código adicional y dependencias como numPy, Pandas, NL personalizado, etc. para proporcionar funcionalidad adicional, como formatear y limpiar entradas antes de la inferencia. FastAPI también se incluye como parte de la imagen personalizada y se usa para proporcionar los puntos finales de la API REST para la inferencia y las comprobaciones de estado. Luego, SageMaker se configura para implementar los modelos de TensorFlow guardados en S3 con la imagen de inferencia en instancias de AWS ml.c5 optimizadas para computación a fin de generar puntos finales de inferencia de alto rendimiento. Cada punto final se crea para que lo use un solo cliente para aislar sus modelos y datos.
Inferencia
Una vez que se completa el flujo de trabajo de implementación, el flujo de trabajo de inferencia se hace cargo. Todos los primeros correos electrónicos de soporte entrantes se pasan a través de la API de inferencia para los clasificadores implementados específicos para ese cliente. Los clasificadores implementados luego realizan la clasificación de texto en cada uno de estos correos electrónicos, cada uno de los cuales genera etiquetas de clasificación para el cliente.
Posibles mejoras y personalizaciones
Kustomer está considerando expandir la solución con las siguientes mejoras:
- DLC de Hugging Face – Kustomer actualmente usa las imágenes base de Docker de TensorFlow para la etapa de preprocesamiento de datos y planea migrar a Contenedores de aprendizaje profundo (DLC) Hugging Face. Esto lo ayuda a comenzar a entrenar modelos inmediatamente, saltándose el complicado proceso de construir y optimizar sus entornos de entrenamiento desde cero. Para más información, ver Abrazando la cara en Amazon SageMaker.
- Bucle de retroalimentación – Puede implementar un ciclo de retroalimentación utilizando técnicas de aprendizaje activo o aprendizaje por refuerzo para aumentar la eficiencia general del modelo.
- Integración con otros sistemas internos – Kustomer quiere la capacidad de integrar la clasificación de texto con otros sistemas como Smart Suggestions, que es otro servicio de Kustomer IQ que analiza cientos de accesos directos y sugiere los accesos directos que son más relevantes para la consulta de un cliente, mejorando los tiempos de respuesta y el rendimiento de los agentes.
Conclusión
En esta publicación, discutimos cómo Kustomer usa imágenes Docker personalizadas para el entrenamiento y la inferencia de SageMaker, lo que facilita la integración y agiliza el proceso. Demostramos cómo Kustomer aprovecha Lambda y SageMaker con imágenes Docker personalizadas que ayudan a implementar el proceso de clasificación de texto con flujos de trabajo de preprocesamiento y posprocesamiento. Esto proporciona flexibilidad para usar imágenes más grandes para la creación, el entrenamiento y la inferencia de modelos. La compatibilidad con imágenes de contenedores para Lambda le permite personalizar aún más su función, lo que abre muchos casos de uso nuevos para el aprendizaje automático sin servidor. La solución aprovecha varios servicios de AWS, incluidos SageMaker, Lambda, imágenes de Docker, Amazon ECR, Amazon ECS, Amazon SQS y Amazon S3.
Si quieres saber más sobre Kustomer, te animamos a visitar la Sitio web del cliente y explorar sus estudios de caso.
Haga Clic en esta página para comenzar su viaje con Amazon SageMaker. Para una experiencia práctica, puede consultar Amazon SageMaker taller.
Acerca de los autores
Umesh Kalaspurkar es un arquitecto de soluciones para AWS con sede en Nueva York. Aporta más de 20 años de experiencia en diseño y ejecución de proyectos de Innovación y Transformación Digital, en empresas y startups. Le motiva ayudar a los clientes a identificar y superar los desafíos. Fuera del trabajo, a Umesh le gusta ser padre, esquiar y viajar.
Ian Lantzy es ingeniero sénior de software y aprendizaje automático para Kustomer y se especializa en tomar tareas de investigación de aprendizaje automático y convertirlas en servicios de producción.
Prasad Shetty es un arquitecto de soluciones para AWS con sede en Boston. Ha creado productos de software y ha liderado la modernización y la innovación digital en productos y servicios en empresas durante más de 20 años. Le apasiona impulsar la estrategia y la adopción de la nube, y aprovechar la tecnología para crear excelentes experiencias para los clientes. En su tiempo libre, a Prasad le gusta andar en bicicleta y viajar.
jonathan greifenberger es un administrador de cuentas sénior con base en Nueva York para AWS con 25 años de experiencia en la industria de TI. Jonathan lidera un equipo que ayuda a los clientes de diversas industrias y verticales en su proceso de adopción y modernización de la nube.
- Coinsmart. El mejor intercambio de Bitcoin y criptografía de Europa.
- Platoblockchain. Inteligencia del Metaverso Web3. Conocimiento amplificado. ACCESO LIBRE.
- CriptoHawk. Radar de altcoins. Prueba gratis.
- Fuente: https://aws.amazon.com/blogs/machine-learning/how-kustomer-utilizes-custom-docker-images-amazon-sagemaker-to-build-a-text-classification-pipeline/
- "
- &
- 100
- 20 años
- 7
- Sobre
- de la máquina
- Mi Cuenta
- a través de
- lector activo
- Adicionales
- Adopción
- Ventaja
- ventajas
- agentes
- AI
- algoritmos
- Todos
- Amazon
- análisis
- Otra
- abejas
- API
- enfoque
- arquitectura
- Automatización
- AWS
- "Ser"
- build
- Construir la
- capacidades
- cases
- causado
- Reto
- retos
- Cheques
- clasificación
- Limpieza
- Soluciones
- código
- Comunicaciónes
- Empresas
- Calcular
- consumidor
- Envase
- Contenedores
- contiene
- contenido
- Conversación
- conversaciones
- experiencia del cliente
- Servicio al Cliente
- Atención al cliente
- Clientes
- datos
- día
- retrasos
- entrega
- Demanda
- despliegue
- Diseño
- desarrollado
- digital
- descubrimiento
- Docker
- conducción
- Eficaz
- eficiencia
- permitiendo
- fomentar
- Punto final
- ingeniero
- Empresa
- Eventos
- ejemplo
- en expansión
- experience
- Experiencias
- Cara
- RÁPIDO
- Fed
- realimentación
- Nombre
- Flexibilidad
- siguiendo
- función
- a la fatiga
- generar
- Diezmos y Ofrendas
- GPU
- maravillosa
- Invitad@s
- Guest Post
- es
- Salud
- ayuda
- ayuda
- Alta
- Cómo
- HTTPS
- Cientos
- Identifique
- imagen
- implementar
- implementado
- incluido
- Incluye
- aumente
- aumentado
- industrias
- energético
- información
- Innovation
- Insights
- integrar
- integración
- De Operación
- intención
- Interfaz
- IT
- etiquetado
- Etiquetas
- large
- mayores
- APRENDE:
- aprendizaje
- LED
- Nivel
- apalancamientos
- localmente
- máquina
- máquina de aprendizaje
- Realizar
- gerente
- Métrica
- ML
- modelo
- modelos
- MongoDB
- MEJOR DE TU
- New York
- orquestación
- solicite
- para las fiestas.
- Otro
- de otra manera
- Personas
- actuación
- plataforma
- Popular
- posible
- predicción
- cotización
- Problema
- Producto
- Producción
- productividad
- Productos
- proyecta
- proporcionar
- proporciona un
- con rapidez
- la reducción de
- exigir
- Requisitos
- la investigación
- respuesta
- RESTO
- Ruta
- Ejecutar
- correr
- Escalabilidad
- Escala
- Sdk
- Sin servidor
- de coches
- Servicios
- servicio
- set
- sencillos
- Tamaño
- inteligente
- So
- Software
- Soluciones
- se especializa
- específicamente
- dividido
- Etapa
- comienzo
- Startups
- STORAGE
- tienda
- tiendas
- Estrategia
- pelar
- estudios
- sustancial
- SOPORTE
- Todas las funciones a su disposición
- escuchar
- tareas
- equipo
- técnicas
- Tecnología
- miles
- A través de esta formación, el personal docente y administrativo de escuelas y universidades estará preparado para manejar los recursos disponibles que derivan de la diversidad cultural de sus estudiantes. Además, un mejor y mayor entendimiento sobre estas diferencias y similitudes culturales permitirá alcanzar los objetivos de inclusión previstos.
- equipo
- Tokens
- Temas
- Formación
- entender
- Ver
- ¿
- dentro de
- palabras
- Actividades:
- años