Esta é uma postagem de convidado do engenheiro sênior de software e aprendizado de máquina da Kustomer, Ian Lantzy, e da equipe da AWS Umesh Kalaspurkar, Prasad Shetty e Jonathan Greifenberger.
Nas próprias palavras de Kustomer, “Kustomer é a plataforma de CRM SaaS omnicanal que reinventa o atendimento ao cliente corporativo para oferecer experiências de destaque. Construído com automação inteligente, dimensionamos para atender às necessidades de qualquer contact center e negócios, unificando dados de várias fontes e permitindo que as empresas forneçam serviços e suporte sem esforço, consistentes e personalizados por meio de uma única visualização de linha do tempo.”
Kustomer queria a capacidade de analisar rapidamente grandes volumes de comunicações de suporte para seus clientes de negócios - experiência do cliente e organizações de serviços - e automatizar a descoberta de informações como a intenção do cliente final, problema de atendimento ao cliente e outros insights relevantes relacionados ao consumidor. Compreender essas características pode ajudar as organizações CX a gerenciar milhares de emails de suporte de entrada classificando e categorizando automaticamente o conteúdo. Aproveitamentos do cliente Amazon Sage Maker para gerenciar a análise das comunicações de suporte recebidas por meio de sua inteligência artificial QI do cliente plataforma. O serviço de classificação de conversas do Kustomer IQ é capaz de contextualizar conversas e automatizar tarefas tediosas e repetitivas, reduzindo a distração do agente e o custo geral por contato. Este e outros serviços IQ da Kustomer aumentaram a produtividade e a automação de seus clientes empresariais.
Neste post, falamos sobre como o Kustomer usa imagens personalizadas do Docker para treinamento e inferência do SageMaker, o que facilita a integração e agiliza o processo. Com essa abordagem, os clientes empresariais da Kustomer classificam automaticamente mais de 50 mil e-mails de suporte por mês com até 70% de precisão.
Histórico e desafios
Kustomer usa um pipeline de classificação de texto personalizado para seu serviço de classificação de conversa. Isso os ajuda a gerenciar milhares de solicitações por dia por meio de classificação e categorização automáticas, utilizando o treinamento e a orquestração de inferência do SageMaker. O mecanismo de treinamento de classificação de conversas usa imagens personalizadas do Docker para processar dados e treinar modelos usando conversas históricas e, em seguida, prevê os tópicos, categorias ou outros rótulos personalizados que um determinado agente precisa para classificar as conversas. Em seguida, o mecanismo de previsão utiliza os modelos treinados com outra imagem de encaixe personalizada para categorizar as conversas, que as organizações usam para automatizar relatórios ou encaminhar conversas para uma equipe específica com base em seu tópico.
O processo de categorização do SageMaker começa estabelecendo um pipeline de treinamento e inferência que pode fornecer classificação de texto e recomendações contextuais. Uma configuração típica seria implementada com abordagens sem servidor como AWS Lambda para pré-processamento e pós-processamento de dados porque tem um requisito mínimo de provisionamento com um modelo de preço sob demanda eficaz. No entanto, usar o SageMaker com dependências como TensorFlow, NumPy e Pandas pode aumentar rapidamente o tamanho do pacote do modelo, tornando o processo de implantação geral complicado e difícil de gerenciar. A Kustomer usou imagens personalizadas do Docker para superar esses desafios.
As imagens personalizadas do Docker oferecem vantagens substanciais:
- Permite tamanhos de pacotes compactados maiores (mais de 10 GB), que podem conter estruturas populares de aprendizado de máquina (ML), como TensorFlow, MXNet, PyTorch ou outras.
- Permite trazer código personalizado ou algoritmos desenvolvidos localmente para Estúdio Amazon SageMaker notebooks para iteração rápida e treinamento de modelo.
- Evita atrasos de pré-processamento causados no Lambda ao descompactar pacotes de implantação.
- Oferece flexibilidade para integração perfeita com sistemas internos.
- A compatibilidade e a escalabilidade futuras facilitam a conversão de um serviço usando o Docker, em vez de empacotar arquivos .zip em uma função do Lambda.
- Reduz o tempo de resposta para um pipeline de implantação de CI/CD.
- Fornece familiaridade com o Docker dentro da equipe e facilidade de uso.
- Fornece acesso a armazenamentos de dados por meio de APIs e um tempo de execução de back-end.
- Oferece melhor suporte para intervir em qualquer pré-processamento ou pós-processamento em que o Lambda exigiria um serviço de computação separado para cada processo (como treinamento ou implantação).
Visão geral da solução
A categorização e rotulagem de e-mails de suporte é uma etapa crítica no processo de suporte ao cliente. Ele permite que as empresas direcionem as conversas para as equipes certas e entendam em alto nível sobre o que seus clientes estão contatando. Os clientes empresariais da Kustomer lidam com milhares de conversas todos os dias, portanto, classificar em escala é um desafio. Automatizar esse processo ajuda os agentes a serem mais eficazes e a fornecer suporte mais coeso, além de ajudar seus clientes conectando-os com as pessoas certas mais rapidamente.
O diagrama a seguir ilustra a arquitetura da solução:
O processo de classificação da conversa começa com o cliente empresarial dando permissão ao Kustomer para configurar um pipeline de treinamento e inferência que pode ajudá-lo com classificação de texto e recomendações contextuais. A Kustomer expõe uma interface de usuário a seus clientes para monitorar o processo de treinamento e inferência, que é implementado usando o SageMaker junto com modelos do TensorFlow e imagens personalizadas do Docker. O processo de construção e utilização de um classificador é dividido em cinco fluxos de trabalho principais, que são coordenados por um serviço de trabalho executado em Amazon ECS. Para coordenar os eventos do pipeline e acionar o treinamento e a implantação do modelo, o trabalhador usa um Amazon SQS queue e se integra diretamente ao SageMaker usando o SDK Node.js fornecido pela AWS. Os fluxos de trabalho são:
- Exportação de dados
- Pré-processamento de dados
- Training
- desenvolvimento
- Inferência
Exportação de dados
O processo de exportação de dados é executado sob demanda e começa com um processo de aprovação do cliente comercial da Kustomer para confirmar o uso de dados de e-mail para análise. Os dados relevantes para o processo de classificação são capturados por meio do e-mail inicial recebido do cliente final. Por exemplo, um e-mail de suporte normalmente contém o pensamento coerente completo do problema com detalhes sobre o problema. Como parte do processo de exportação, os emails são coletados do armazenamento de dados (MongoDB e Amazon OpenSearch) e salvo em Serviço de armazenamento simples da Amazon (Amazônia S3).
Pré-processamento de dados
O estágio de pré-processamento de dados limpa o conjunto de dados para fluxos de trabalho de treinamento e inferência, removendo quaisquer tags HTML de e-mails de clientes e alimentando-os através de várias etapas de limpeza e higienização para detectar qualquer HTML malformado. Este processo inclui o uso de Hugging Face tokenizers e transformadores. Quando o processo de limpeza for concluído, quaisquer tokens personalizados adicionais necessários para treinamento serão adicionados ao conjunto de dados de saída.
Durante o estágio de pré-processamento, uma função do Lambda invoca uma imagem personalizada do Docker. Esta imagem consiste em uma base fina do Python 3.8, a Cliente de interface de tempo de execução do AWS Lambda Python, e dependências como NumPy e Pandas. A imagem personalizada do Docker é armazenada em Registro do Amazon Elastic Container (Amazon ECR) e, em seguida, alimentado por meio do pipeline de CI/CD para implantação. A função do Lambda implantada mostra os dados para gerar três conjuntos de dados distintos por classificador:
- Training – Usado para o processo de treinamento real
- Validação – Usado para validação durante o processo de treinamento do TensorFlow
- Test – Usado no final do processo de treinamento para comparações de modelos de métricas
Os conjuntos de dados de saída gerados são arquivos pickle do Pandas, que são armazenados no Amazon S3 para serem usados pelo estágio de treinamento.
Training
A imagem de treinamento personalizada da Kustomer utiliza uma janela de encaixe otimizada para GPU TensorFlow 2.7 imagem como base. Código personalizado, dependências e modelos básicos são incluídos antes que a imagem de treinamento personalizada do docker seja carregada no ECR. Os tipos de instância P3 são usados para o processo de treinamento e o uso de uma imagem de base otimizada para GPU ajuda a tornar o processo de treinamento o mais eficiente possível. O Amazon SageMaker é usado com essa imagem de encaixe personalizada para treinar modelos do TensorFlow que são armazenados no S3. As métricas personalizadas também são calculadas e salvas para ajudar com recursos adicionais, como comparações de modelos e retreinamento automático. Quando o estágio de treinamento for concluído, o trabalhador de IA será notificado e o cliente comercial poderá iniciar o fluxo de trabalho de implantação.
desenvolvimento
Para o fluxo de trabalho de implantação, uma imagem de inferência personalizada do Docker é criada usando uma imagem base de serviço do TensorFlow (criada especificamente para inferência rápida). Código adicional e dependências como numPy, Pandas, NL personalizado, etc. estão incluídos para fornecer funcionalidades adicionais, como formatação e limpeza de entradas antes da inferência. O FastAPI também está incluído como parte da imagem customizada e é usado para fornecer os terminais da API REST para inferência e verificações de integridade. O SageMaker é então configurado para implantar os modelos do TensorFlow salvos no S3 com a imagem de inferência em instâncias da AWS ml.c5 otimizadas para computação para gerar endpoints de inferência de alto desempenho. Cada endpoint é criado para uso por um único cliente para isolar seus modelos e dados.
Inferência
Depois que o fluxo de trabalho de implantação for concluído, o fluxo de trabalho de inferência assume. Todos os primeiros e-mails de suporte de entrada são passados pela API de inferência para os classificadores implantados específicos para esse cliente. Os classificadores implantados realizam a classificação de texto em cada um desses emails, cada um gerando rótulos de classificação para o cliente.
Possíveis melhorias e personalizações
Kustomer está considerando expandir a solução com as seguintes melhorias:
- Abraçando DLCs de rosto – Atualmente, o Kustomer usa as imagens básicas do Docker do TensorFlow para o estágio de pré-processamento de dados e planeja migrar para Abraçando os Contêineres de Aprendizado Profundo (DLCs) do Face. Isso ajuda você a iniciar os modelos de treinamento imediatamente, ignorando o complicado processo de criar e otimizar seus ambientes de treinamento do zero. Para mais informações, veja Abraçando o rosto no Amazon SageMaker.
- Loop de feedback – Você pode implementar um ciclo de feedback usando técnicas de aprendizado ativo ou aprendizado por reforço para aumentar a eficiência geral do modelo.
- Integração com outros sistemas internos – A Kustomer quer a capacidade de integrar a classificação de texto com outros sistemas como o Smart Suggestions, que é outro serviço Kustomer IQ que analisa centenas de atalhos e sugere os atalhos mais relevantes para uma consulta do cliente, melhorando os tempos de resposta e o desempenho do agente.
Conclusão
Neste post, discutimos como o Kustomer usa imagens personalizadas do Docker para treinamento e inferência do SageMaker, o que facilita a integração e agiliza o processo. Demonstramos como o Kustomer aproveita o Lambda e o SageMaker com imagens personalizadas do Docker que ajudam a implementar o processo de classificação de texto com fluxos de trabalho de pré-processamento e pós-processamento. Isso oferece flexibilidade para usar imagens maiores para criação, treinamento e inferência de modelos. O suporte a imagens de contêiner para Lambda permite personalizar ainda mais sua função, abrindo muitos novos casos de uso para ML sem servidor. A solução aproveita vários serviços da AWS, incluindo SageMaker, Lambda, imagens do Docker, Amazon ECR, Amazon ECS, Amazon SQS e Amazon S3.
Se você quiser saber mais sobre Kustomer, nós o encorajamos a visitar o Site do cliente e explorar seus estudos de caso.
Clique SUA PARTICIPAÇÃO FAZ A DIFERENÇA para iniciar sua jornada com o Amazon SageMaker. Para uma experiência prática, você pode fazer referência ao Amazon SageMaker workshop.
Sobre os autores
Umesh Kalaspurkar é um arquiteto de soluções baseado em Nova York para AWS. Ele traz mais de 20 anos de experiência em design e entrega de projetos de Inovação e Transformação Digital, em empresas e startups. Ele é motivado por ajudar os clientes a identificar e superar desafios. Fora do trabalho, Umesh gosta de ser pai, esquiar e viajar.
Ian Lantzy é engenheiro sênior de software e aprendizado de máquina da Kustomer e é especializado em realizar tarefas de pesquisa de aprendizado de máquina e transformá-las em serviços de produção.
Prasad Shetty é um arquiteto de soluções baseado em Boston para AWS. Ele construiu produtos de software e liderou a modernização e a inovação digital em produtos e serviços em empresas por mais de 20 anos. Ele é apaixonado por impulsionar a estratégia e a adoção da nuvem e aproveitar a tecnologia para criar ótimas experiências para o cliente. Em seu tempo de lazer, Prasad gosta de andar de bicicleta e viajar.
Jonathan Greifenberger é gerente de contas sênior da AWS com sede em Nova York, com 25 anos de experiência no setor de TI. Jonathan lidera uma equipe que auxilia clientes de vários setores e verticais em sua jornada de adoção e modernização da nuvem.
- Coinsmart. A melhor troca de Bitcoin e criptografia da Europa.
- Platoblockchain. Inteligência Metaverso Web3. Conhecimento Ampliado. ACESSO LIVRE.
- CryptoHawk. Radar Altcoin. Teste grátis.
- Fonte: https://aws.amazon.com/blogs/machine-learning/how-kustomer-utilizes-custom-docker-images-amazon-sagemaker-to-build-a-text-classification-pipeline/
- "
- &
- 100
- 20 anos
- 7
- Sobre
- Acesso
- Conta
- em
- ativo
- Adicional
- Adoção
- Vantagem
- vantagens
- agentes
- AI
- algoritmos
- Todos os Produtos
- Amazon
- análise
- Outro
- api
- APIs
- abordagem
- arquitetura
- Automação
- AWS
- ser
- construir
- Prédio
- negócio
- capacidades
- casos
- causado
- desafiar
- desafios
- Cheques
- classificação
- Limpeza
- Na nuvem
- código
- Comunicações
- Empresas
- Computar
- consumidor
- Recipiente
- Containers
- contém
- conteúdo
- Conversa
- conversas
- experiência do cliente
- Atendimento ao Cliente
- Suporte ao cliente
- Clientes
- dados,
- dia
- atrasos
- Entrega
- Demanda
- desenvolvimento
- Design
- desenvolvido
- digital
- descoberta
- Estivador
- condução
- Eficaz
- eficiência
- permitindo
- encorajar
- Ponto final
- engenheiro
- Empreendimento
- eventos
- exemplo
- expansão
- vasta experiência
- Experiências
- Rosto
- RÁPIDO
- Alimentado
- retornos
- Primeiro nome
- Flexibilidade
- seguinte
- função
- funcionalidade
- gerar
- Dando
- GPU
- ótimo
- Locatário
- Visitante Mensagem
- ter
- Saúde
- ajudar
- ajuda
- Alta
- Como funciona o dobrador de carta de canal
- HTTPS
- Centenas
- identificar
- imagem
- executar
- implementado
- incluído
- Incluindo
- Crescimento
- aumentou
- indústrias
- indústria
- INFORMAÇÕES
- Inovação
- insights
- integrar
- integração
- Inteligente
- intenção
- Interface
- emitem
- IT
- marcação
- Rótulos
- grande
- Maior
- APRENDER
- aprendizagem
- levou
- Nível
- aproveita as
- localmente
- máquina
- aprendizado de máquina
- Fazendo
- Gerente
- Métrica
- ML
- modelo
- modelos
- MongoDB
- a maioria
- New York
- orquestração
- ordem
- organizações
- Outros
- de outra forma
- Pessoas
- atuação
- plataforma
- Popular
- possível
- predição
- preços
- Problema
- processo
- Produto
- Produção
- produtividade
- Produtos
- projetos
- fornecer
- fornece
- rapidamente
- redução
- requerer
- requeridos
- pesquisa
- resposta
- DESCANSO
- Rota
- Execute
- corrida
- AMPLIAR
- Escala
- Sdk
- Serverless
- serviço
- Serviços
- de servir
- conjunto
- simples
- Tamanho
- smart
- So
- Software
- Soluções
- especializada
- especificamente
- divisão
- Etapa
- começo
- Startups
- armazenamento
- loja
- lojas
- Estratégia
- descascamento
- caso
- substancial
- ajuda
- sistemas
- Converse
- tarefas
- Profissionais
- técnicas
- Equipar
- milhares
- Através da
- tempo
- Tokens
- Temas
- Training
- Transformação
- compreender
- Ver
- O Quê
- dentro
- palavras
- Atividades:
- anos