No mundo digital de hoje, a maioria dos consumidores prefere encontrar respostas para suas perguntas de atendimento ao cliente por conta própria, em vez de perder tempo entrando em contato com empresas e/ou provedores de serviços. Esta postagem do blog explora uma solução inovadora para criar um chatbot de perguntas e respostas em Amazon-Lex que usa as perguntas frequentes existentes em seu site. Essa ferramenta com tecnologia de IA pode fornecer respostas rápidas e precisas para consultas do mundo real, permitindo que o cliente resolva problemas comuns com rapidez e facilidade de forma independente.
Processamento de URL único
Muitas empresas têm um conjunto publicado de respostas para perguntas frequentes para seus clientes disponíveis em seu site. Nesse caso, queremos oferecer aos clientes um chatbot que possa responder às suas perguntas de nossas perguntas frequentes publicadas. Na postagem do blog intitulada Aprimore o Amazon Lex com recursos de perguntas frequentes conversacionais usando LLMs, demonstramos como você pode usar uma combinação de Amazon Lex e LlamaIndex para criar um chatbot baseado em suas fontes de conhecimento existentes, como PDF ou documentos do Word. Para oferecer suporte a um FAQ simples, baseado em um site de FAQs, precisamos criar um processo de ingestão que possa rastrear o site e criar incorporações que possam ser usadas pelo LlamaIndex para responder às perguntas dos clientes. Neste caso, vamos construir no bot criado no Postagem de blog anterior, que consulta essas incorporações com o enunciado de um usuário e retorna a resposta das perguntas frequentes do site.
O diagrama a seguir mostra como o processo de ingestão e o bot do Amazon Lex funcionam juntos para nossa solução.
No fluxo de trabalho da solução, o site com perguntas frequentes é ingerido por meio de AWS Lambda. Essa função do Lambda rastreia o site e armazena o texto resultante em um Serviço de armazenamento simples da Amazon (Amazon S3). O bucket S3 aciona uma função Lambda que usa LlamaIndex para criar embeddings que são armazenados no Amazon S3. Quando chega uma pergunta de um usuário final, como “Qual é a sua política de devolução?”, o bot do Amazon Lex usa sua função Lambda para consultar as incorporações usando uma abordagem baseada em RAG com LlamaIndex. Para obter mais informações sobre essa abordagem e os pré-requisitos, consulte a postagem do blog, Aprimore o Amazon Lex com recursos de perguntas frequentes conversacionais usando LLMs.
Depois de concluídos os pré-requisitos do blog mencionado acima, o primeiro passo é inserir as perguntas frequentes em um repositório de documentos que pode ser vetorizado e indexado pelo LlamaIndex. O código a seguir mostra como fazer isso:
No exemplo anterior, pegamos um URL de site de perguntas frequentes predefinido da Zappos e o ingerimos usando o EZWebLoader
aula. Com esta classe, navegamos até a URL e carregamos todas as perguntas que estão na página em um índice. Agora podemos fazer uma pergunta como “A Zappos tem vales-presente?” e obtenha as respostas diretamente de nossas perguntas frequentes no site. A captura de tela a seguir mostra o console de teste de bot do Amazon Lex respondendo a essa pergunta das perguntas frequentes.
Conseguimos isso porque rastreamos a URL na primeira etapa e criamos embeddings que o LlamaIndex poderia usar para procurar a resposta para nossa pergunta. A função Lambda do nosso bot mostra como essa pesquisa é executada sempre que a intenção de fallback é retornada:
Essa solução funciona bem quando uma única página da Web contém todas as respostas. No entanto, a maioria dos sites de FAQ não são construídos em uma única página. Por exemplo, em nosso exemplo da Zappos, se fizermos a pergunta “Você tem uma política de equiparação de preços?”, obteremos uma resposta insatisfatória, conforme mostrado na captura de tela a seguir.
Na interação anterior, a resposta da política de equiparação de preços não é útil para nosso usuário. Esta resposta é curta porque o FAQ referenciado é um link para uma página específica sobre a política de equiparação de preços e nosso rastreamento da web foi apenas para uma única página. Obter melhores respostas significa rastrear esses links também. A próxima seção mostra como obter respostas para perguntas que exigem dois ou mais níveis de profundidade de página.
Rastreamento em nível N
Quando rastreamos uma página da Web para obter conhecimento de perguntas frequentes, as informações que desejamos podem estar contidas em páginas vinculadas. Por exemplo, em nosso exemplo da Zappos, fazemos a pergunta “Você tem uma política de equiparação de preços?” e a resposta é “Sim, visite aprender mais." Se alguém perguntar "Qual é a sua política de equiparação de preços?" então queremos dar uma resposta completa com a política. Conseguir isso significa que temos a necessidade de percorrer os links para obter as informações reais para o nosso usuário final. Durante o processo de ingestão, podemos usar nosso carregador da Web para localizar os links de âncora para outras páginas HTML e atravessá-los. A alteração de código a seguir em nosso rastreador da web nos permite encontrar links nas páginas que rastreamos. Ele também inclui alguma lógica adicional para evitar rastreamento circular e permitir um filtro por um prefixo.
No código anterior, apresentamos a capacidade de rastrear N níveis de profundidade e fornecemos um prefixo que nos permite restringir o rastreamento apenas a coisas que começam com um determinado padrão de URL. Em nosso exemplo da Zappos, todas as páginas de atendimento ao cliente são originadas de zappos.com/c
, portanto, incluímos isso como um prefixo para limitar nossos rastreamentos a um subconjunto menor e mais relevante. O código mostra como podemos ingerir até dois níveis de profundidade. A lógica do Lambda do nosso bot permanece a mesma porque nada mudou, exceto que o rastreador ingere mais documentos.
Agora temos todos os documentos indexados e podemos fazer uma pergunta mais detalhada. Na captura de tela a seguir, nosso bot fornece a resposta correta para a pergunta “Você tem uma política de equiparação de preços?”
Agora temos uma resposta completa para nossa pergunta sobre correspondência de preços. Em vez de simplesmente ouvir “Sim, veja nossa política”, ele nos fornece os detalhes do rastreamento de segundo nível.
limpar
Para evitar despesas futuras, prossiga com a exclusão de todos os recursos que foram implantados como parte deste exercício. Fornecemos um script para encerrar o endpoint do Sagemaker normalmente. Os detalhes de uso estão no README. Além disso, para remover todos os outros recursos, você pode executar cdk destroy
no mesmo diretório que os outros comandos cdk para desprovisionar todos os recursos em sua pilha.
Conclusão
A capacidade de inserir um conjunto de perguntas frequentes em um chatbot permite que seus clientes encontrem as respostas para suas perguntas com consultas diretas e em linguagem natural. Ao combinar o suporte integrado no Amazon Lex para tratamento de fallback com uma solução RAG, como um LlamaIndex, podemos fornecer um caminho rápido para nossos clientes obterem respostas satisfatórias, selecionadas e aprovadas para perguntas frequentes. Ao aplicar o rastreamento de nível N em nossa solução, podemos permitir respostas que podem abranger vários links de perguntas frequentes e fornecer respostas mais profundas às consultas de nossos clientes. Seguindo essas etapas, você pode incorporar facilmente recursos avançados de perguntas e respostas baseados em LLM e processamento eficiente de URLs em seu chatbot do Amazon Lex. Isso resulta em interações mais precisas, abrangentes e contextualmente conscientes com os usuários.
Sobre os autores
Max Henkel Wallace é um engenheiro de desenvolvimento de software na AWS Lex. Ele gosta de trabalhar aproveitando a tecnologia para maximizar o sucesso do cliente. Fora do trabalho, ele adora cozinhar, passar tempo com os amigos e fazer mochilas.
Canção Feng é um cientista aplicado sênior no AWS AI Labs, especializado em processamento de linguagem natural e inteligência artificial. Sua pesquisa explora vários aspectos desses campos, incluindo modelagem de diálogo baseada em documentos, raciocínio para diálogos orientados a tarefas e geração de texto interativo usando dados multimodais.
John Baker é SDE principal na AWS, onde trabalha em processamento de linguagem natural, modelos de linguagem grandes e outros projetos relacionados a ML/IA. Ele está na Amazon há mais de 9 anos e trabalhou na AWS, Alexa e Amazon.com. Em seu tempo livre, John gosta de esquiar e outras atividades ao ar livre em todo o noroeste do Pacífico.
- Conteúdo com tecnologia de SEO e distribuição de relações públicas. Seja amplificado hoje.
- PlatoData.Network Gerativa Vertical Ai. Capacite-se. Acesse aqui.
- PlatoAiStream. Inteligência Web3. Conhecimento Amplificado. Acesse aqui.
- PlatãoESG. Automotivo / EVs, Carbono Tecnologia Limpa, Energia, Ambiente, Solar, Gestão de resíduos. Acesse aqui.
- BlockOffsets. Modernizando a Propriedade de Compensação Ambiental. Acesse aqui.
- Fonte: https://aws.amazon.com/blogs/machine-learning/enhance-amazon-lex-with-llms-and-improve-the-faq-experience-using-url-ingestion/
- :tem
- :é
- :não
- :onde
- $UP
- 1
- 10
- 100
- 12
- 14
- 16
- 19
- 23
- 36
- 7
- 80
- a
- habilidade
- Capaz
- Sobre
- realizar
- preciso
- Alcançar
- alcançar
- em
- atividades
- real
- Adicional
- Adicionalmente
- AI
- Alimentado por AI
- Alexa
- Todos os Produtos
- permitir
- Permitindo
- permite
- já
- tb
- Amazon
- Amazon-Lex
- Amazon Web Services
- Amazon.com
- an
- Apresentadora
- e
- responder
- respostas
- aplicado
- Aplicando
- abordagem
- aprovou
- SOMOS
- Chega
- artificial
- inteligência artificial
- AS
- aspectos
- At
- disponível
- evitar
- consciente
- AWS
- em caminho duplo
- base
- baseado
- BE
- Porque
- sido
- começar
- ser
- Melhor
- Blog
- corpo
- Bot
- construir
- construído
- construídas em
- negócios
- by
- CAN
- capacidades
- Cartões
- casas
- certo
- alterar
- mudado
- chatbot
- a verificação
- classe
- cliente
- Fechar
- código
- COM
- combinação
- combinando
- vinda
- comum
- completar
- compreensivo
- cônsul
- Consumidores
- contida
- conteúdo
- conteúdo
- contexto
- conversação
- converter
- conversão
- correta
- poderia
- Contador
- rastreador
- crio
- criado
- comissariada
- cliente
- Atendimento ao Cliente
- Sucesso do cliente
- Clientes
- ciclos
- dados,
- profundo
- mais profunda
- Padrão
- demonstraram
- implantado
- profundidade
- detalhado
- detalhes
- Desenvolvimento
- Diálogo
- digital
- mundo digital
- diretamente
- documento
- INSTITUCIONAIS
- down
- download
- duplicatas
- durante
- e
- cada
- facilmente
- eficiente
- outro
- permite
- final
- Ponto final
- engenheiro
- aumentar
- empresas
- entrada
- Evento
- exemplo
- Exceto
- exceção
- Exercício
- existente
- despesas
- vasta experiência
- explora
- Perguntas frequentes
- Funcionalidades
- Campos
- Arquivos
- filtro
- Encontre
- Primeiro nome
- seguinte
- Escolha
- encontrado
- amigos
- da
- função
- futuro
- geração
- ter
- dom
- cartões de presente
- OFERTE
- dado
- dá
- Go
- tinha
- Manipulação
- Ter
- he
- cabeçalhos
- útil
- sua experiência
- sua
- Como funciona o dobrador de carta de canal
- Como Negociar
- Contudo
- HTML
- http
- HTTPS
- if
- importar
- melhorar
- in
- incluir
- inclui
- Incluindo
- Entrada
- incorporar
- independentemente
- índice
- indexado
- info
- INFORMAÇÕES
- inovadores
- entrada
- Inquéritos
- instância
- em vez disso
- Inteligência
- intenção
- interação
- interações
- interativo
- para dentro
- introduzir
- IT
- ESTÁ
- banheiro
- jpg
- json
- Chave
- Conhecimento
- Laboratório
- língua
- grande
- APRENDER
- Nível
- níveis
- aproveitando
- como
- LIMITE
- LINK
- ligado
- Links
- linux
- Lista
- carregar
- carregador
- local
- localmente
- logging
- lógica
- correspondido
- correspondente
- Maximizar
- significar
- significa
- mensagem
- mensagens
- modelagem
- modelos
- mais
- a maioria
- múltiplo
- nome
- natural
- Processamento de linguagem natural
- você merece...
- Próximo
- nada
- agora
- número
- objetos
- of
- oferecer
- on
- ONE
- só
- or
- OS
- Outros
- A Nossa
- Fora
- lado de fora
- próprio
- Pacífico
- página
- páginas
- parte
- apaixonado
- caminho
- padrão
- platão
- Inteligência de Dados Platão
- PlatãoData
- por favor
- Privacidade
- possivelmente
- Publique
- alimentado
- poderoso
- evitar
- preço
- Diretor
- problemas
- processo
- em processamento
- projetos
- fornecer
- fornecido
- fornecedores
- fornece
- publicado
- consultas
- questão
- Frequentes
- Links
- rapidamente
- aumentar
- em vez
- RE
- alcançar
- leitores
- mundo real
- relacionado
- relevante
- permanece
- remover
- repositório
- solicitar
- pedidos
- requerer
- pesquisa
- Recursos
- resposta
- respostas
- restringir
- resultando
- Resultados
- retorno
- Retorna
- raiz
- Rota
- Execute
- s
- sábio
- mesmo
- Cientista
- sem problemas
- Pesquisar
- Seção
- Vejo
- AUTO
- senior
- serviço
- provedores de serviço
- Serviços
- conjunto
- Baixo
- mostrando
- Shows
- Encerre
- simples
- simplesmente
- solteiro
- local
- Locais
- caça-níqueis
- menor
- So
- Software
- desenvolvimento de software
- solução
- RESOLVER
- alguns
- Alguém
- Fontes
- palmo
- especializando
- específico
- Passar
- pilha
- começo
- Passo
- Passos
- armazenamento
- loja
- armazenadas
- lojas
- franco
- sucesso
- tal
- ajuda
- SYS
- Tire
- tomar
- Tecnologia
- teste
- do que
- que
- A
- as informações
- deles
- Eles
- então
- Este
- coisas
- isto
- aqueles
- todo
- tempo
- intitulado
- para
- hoje
- juntos
- ferramenta
- tratar
- verdadeiro
- tentar
- dois
- tipo
- URL
- us
- Uso
- usar
- usava
- Utilizador
- usuários
- usos
- utilização
- vário
- via
- Visite a
- visitado
- queremos
- foi
- we
- web
- serviços web
- Site
- BEM
- foram
- quando
- sempre que
- qual
- precisarão
- de
- Word
- Atividades:
- trabalhar juntos
- trabalhou
- de gestão de documentos
- trabalhar
- trabalho
- mundo
- seria
- escrito
- X11
- anos
- Vocês
- investimentos
- zefirnet