Eleve seus assistentes de autoatendimento com novos recursos generativos de IA no Amazon Lex | Amazon Web Services

Eleve seus assistentes de autoatendimento com novos recursos generativos de IA no Amazon Lex | Amazon Web Services

Nesta postagem, falamos sobre como a IA generativa está mudando o setor de IA conversacional, fornecendo novas experiências para clientes e criadores de bots, além dos novos recursos em Amazon-Lex que aproveitam esses avanços.

À medida que a demanda por IA conversacional continua a crescer, os desenvolvedores buscam maneiras de aprimorar seus chatbots com interações semelhantes às humanas e recursos avançados, como tratamento de perguntas frequentes. Avanços recentes na IA generativa estão levando a melhorias significativas na compreensão da linguagem natural que tornam os sistemas de conversação mais inteligentes. Ao treinar grandes modelos de redes neurais em conjuntos de dados com trilhões de tokens, os pesquisadores de IA desenvolveram técnicas que permitem que os bots entendam questões mais complexas, forneçam respostas humanas mais naturais e diferenciadas e lidem com uma ampla gama de tópicos. Com essas inovações generativas de IA, você pode criar assistentes virtuais que parecem mais naturais, intuitivos e úteis durante interações de autoatendimento baseadas em texto ou voz. O rápido progresso na IA generativa está aproximando significativamente os chatbots automatizados e os assistentes virtuais do objetivo de ter conversas verdadeiramente inteligentes e fluidas. Com novos avanços nas técnicas de aprendizagem profunda e de redes neurais, os sistemas conversacionais estão preparados para se tornarem ainda mais flexíveis, relacionáveis ​​e semelhantes aos humanos. Esta nova geração de assistentes com tecnologia de IA pode fornecer experiências de autoatendimento perfeitas em uma infinidade de casos de uso.

Aprimore seus assistentes de autoatendimento com novos recursos generativos de IA no Amazon Lex | Inteligência de dados PlatoBlockchain da Amazon Web Services. Pesquisa vertical. Ai.

Como o Amazon Bedrock está mudando o cenário da IA ​​conversacional

Rocha Amazônica é uma maneira fácil de criar e dimensionar aplicativos generativos de IA com modelos fundamentais (FMs). O Amazon Bedrock oferece uma variedade de FMs dos principais fornecedores, para que os clientes da AWS tenham flexibilidade e opções para usar os melhores modelos para seu caso de uso específico.

No mundo acelerado de hoje, esperamos um atendimento ao cliente rápido e eficiente de todas as empresas. No entanto, fornecer um excelente atendimento ao cliente pode ser um desafio significativo quando o volume de consultas ultrapassa os recursos humanos empregados para atendê-las. As empresas podem superar esse desafio de forma eficiente e, ao mesmo tempo, fornecer atendimento personalizado ao cliente, aproveitando os avanços na IA generativa alimentada por grandes modelos de linguagem (LLMs).

Ao longo dos anos, a AWS investiu na democratização do acesso e na ampliação da compreensão da IA, do aprendizado de máquina (ML) e da IA ​​generativa. Os LLMs podem ser altamente úteis em contact centers, fornecendo respostas automatizadas a perguntas frequentes, analisando o sentimento e as intenções do cliente para encaminhar as chamadas de maneira adequada, gerando resumos de conversas para ajudar os agentes e até mesmo gerando automaticamente e-mails ou respostas de bate-papo para consultas comuns dos clientes. Ao lidar com tarefas repetitivas e obter insights de conversas, os LLMs permitem que os agentes do contact center se concentrem na entrega de maior valor por meio de um serviço personalizado e na resolução de problemas complexos.

Melhorando a experiência do cliente com perguntas frequentes de conversação

A IA generativa tem um enorme potencial para fornecer respostas rápidas e confiáveis ​​às perguntas mais comuns dos clientes, de maneira conversacional. Com acesso a fontes de conhecimento autorizadas e LLMs, seu bot existente do Amazon Lex pode fornecer respostas úteis, naturais e precisas a perguntas frequentes, indo além do diálogo orientado a tarefas. Nossa abordagem de geração aumentada de recuperação (RAG) permite que o Amazon Lex aproveite tanto a amplitude do conhecimento disponível nos repositórios quanto a fluência dos LLMs. Você pode simplesmente fazer sua pergunta em linguagem coloquial e livre e receber uma resposta natural e personalizada em segundos. O novo recurso de perguntas frequentes de conversação no Amazon Lex permite que desenvolvedores de bots e designers de conversas se concentrem na definição da lógica de negócios, em vez de projetar fluxos de conversa exaustivos baseados em perguntas frequentes dentro de um bot.

Estamos introduzindo um QnAIntent integrado que usa um LLM para consultar uma fonte de conhecimento autorizada e fornecer uma resposta significativa e contextual. Além disso, os desenvolvedores podem configurar o QnAIntent para apontar para seções específicas da base de conhecimento, garantindo que apenas partes específicas do conteúdo de conhecimento sejam consultadas em tempo de execução para atender às solicitações do usuário. Esta capacidade atende à necessidade de setores altamente regulamentados, como serviços financeiros e saúde, de fornecerem respostas apenas em linguagem compatível. O recurso de perguntas frequentes conversacionais do Amazon Lex permite que as organizações melhorem as taxas de contenção e, ao mesmo tempo, evitem os altos custos de consultas perdidas e transferências de representantes humanos.

Aprimore seus assistentes de autoatendimento com novos recursos generativos de IA no Amazon Lex | Inteligência de dados PlatoBlockchain da Amazon Web Services. Pesquisa vertical. Ai.

Criar um bot do Amazon Lex usando o criador de bot descritivo

Construir bots conversacionais do zero é um processo demorado que requer conhecimento profundo de como os usuários interagem com os bots para antecipar possíveis solicitações e codificar respostas apropriadas. Hoje, designers e desenvolvedores de conversas passam muitos dias escrevendo códigos para ajudar a executar todas as ações possíveis do usuário (intenções), as diversas maneiras pelas quais os usuários formulam suas solicitações (enunciados) e as informações necessárias do usuário para concluir essas ações (caça-níqueis).

O novo recurso descritivo de criação de bots no Amazon Lex usa IA generativa para acelerar o processo de criação de bots. Em vez de escrever código, os designers de conversação e os desenvolvedores de bots agora podem descrever em inglês simples o que desejam que o bot realize (por exemplo, “Fazer reservas para meu hotel usando nome e informações de contato, datas de viagem, tipo de quarto e informações de pagamento”). . Usando apenas esse prompt simples, o Amazon Lex gerará automaticamente intenções, declarações de treinamento, slots, prompts e um fluxo de conversação para dar vida ao bot descrito. Ao fornecer um design básico de bot, esse recurso reduz imensamente o tempo e a complexidade da construção de chatbots conversacionais, permitindo que o construtor repriorize o esforço no ajuste fino da experiência conversacional.

Ao aproveitar o poder da IA ​​generativa com LLMs, o Amazon Lex permite que desenvolvedores e usuários não técnicos criem bots simplesmente descrevendo seu objetivo. Em vez de codificar meticulosamente intenções, declarações, slots e assim por diante, os desenvolvedores podem fornecer um prompt em linguagem natural e o Amazon Lex gerará automaticamente um fluxo de bot básico pronto para refinamento adicional. Inicialmente, esse recurso está disponível apenas em inglês, mas os desenvolvedores podem personalizar ainda mais o bot gerado por IA conforme necessário antes da implantação, economizando muitas horas de trabalho de desenvolvimento manual.

Melhorando a experiência do usuário com resolução assistida de slots

À medida que os consumidores se familiarizam mais com chatbots e sistemas de resposta de voz interativa (IVR), eles esperam níveis mais elevados de inteligência incorporados em experiências de autoatendimento. A eliminação da ambiguidade de respostas mais coloquiais é fundamental para o sucesso, pois os usuários esperam experiências mais naturais e humanas. Com a crescente confiança do consumidor nos recursos do chatbot, há também uma expectativa de desempenho elevado da compreensão da linguagem natural (NLU). No cenário provável de uma expressão semanticamente simples ou complexa não ser resolvida adequadamente para um slot, a confiança do usuário pode diminuir. Nesses casos, um LLM pode auxiliar dinamicamente o modelo NLU existente do Amazon Lex e garantir uma resolução precisa do slot, mesmo quando a expressão do usuário está além dos limites do modelo de slot. No Amazon Lex, o recurso de resolução assistida de slots fornece ao desenvolvedor do bot mais uma ferramenta para aumentar a contenção.

Durante o tempo de execução, quando a NLU não consegue resolver um slot durante um turno de conversação, o Amazon Lex chamará o LLM selecionado pelo desenvolvedor do bot para ajudar na resolução do slot. Se o LLM for capaz de fornecer um valor na nova tentativa de slot, o usuário poderá continuar com a conversa normalmente. Por exemplo, se na nova tentativa de slot um bot perguntar “Em que cidade reside o segurado?” e o usuário responder “Moro em Springfield”, o LLM poderá resolver o valor para “Springfield”. Os tipos de slots suportados para este recurso incluem AMAZON.City, AMAZON.Country, AMAZON.Number, AMAZON.Date, AMAZON.AlphaNumeric (sem regex) e AMAZON.PhoneNumber e AMAZON.Confirmation. Este recurso está disponível apenas em inglês no momento da redação.

Melhorando a experiência do construtor com geração de declarações de treinamento

Um dos pontos problemáticos que os criadores de bots e designers de conversação frequentemente encontram é antecipar a variação e a diversidade de respostas ao invocar uma intenção ou solicitar informações de slot. Quando um desenvolvedor de bot cria uma nova intenção, exemplos de declarações devem ser fornecidos para treinar o modelo de ML nos tipos de respostas que ele pode e deve aceitar. Muitas vezes pode ser difícil antecipar as permutações de palavreado e sintaxe usadas pelos clientes. Com a geração de declarações, o Amazon Lex usa modelos fundamentais, como Titã Amazona para gerar declarações de treinamento com apenas um clique, sem a necessidade de qualquer engenharia imediata.

A geração de enunciados usa o nome da intenção, os enunciados existentes e, opcionalmente, a descrição da intenção para gerar novos enunciados com um LLM. Os desenvolvedores de bots e designers de conversação podem editar ou excluir as declarações geradas antes de aceitá-las. Este recurso funciona com intenções novas e existentes.

Conclusão

Os avanços recentes na IA generativa, sem dúvida, melhoraram as experiências automatizadas do consumidor. Com o Amazon Lex, temos o compromisso de incorporar IA generativa em todos os aspectos do construtor e da experiência do usuário. Os recursos mencionados nesta postagem são apenas o começo – e mal podemos esperar para mostrar o que está por vir.

Para saber mais, consulte Documentação do Amazon Lexe experimente esses recursos no console do Amazon Lex.


Sobre os autores

Aprimore seus assistentes de autoatendimento com novos recursos generativos de IA no Amazon Lex | Inteligência de dados PlatoBlockchain da Amazon Web Services. Pesquisa vertical. Ai.Anuradha Durfee é gerente de produto sênior da equipe Amazon Lex e tem mais de 7 anos de experiência em IA conversacional. Ela é fascinada por interfaces de usuário de voz e por tornar a tecnologia mais acessível por meio de um design intuitivo.

Aprimore seus assistentes de autoatendimento com novos recursos generativos de IA no Amazon Lex | Inteligência de dados PlatoBlockchain da Amazon Web Services. Pesquisa vertical. Ai.Sandeep Srinivasan é gerente de produto sênior da equipe Amazon Lex. Como um observador atento do comportamento humano, ele é apaixonado pela experiência do cliente. Ele passa suas horas acordado na interseção entre pessoas, tecnologia e o futuro.

Carimbo de hora:

Mais de Aprendizado de máquina da AWS