En el mundo digital actual, la mayoría de los consumidores prefieren encontrar respuestas a sus preguntas de servicio al cliente por sí mismos en lugar de tomarse el tiempo para comunicarse con empresas y/o proveedores de servicios. Esta publicación de blog explora una solución innovadora para crear un chatbot de preguntas y respuestas en Amazon lex que utiliza las preguntas frecuentes existentes de su sitio web. Esta herramienta impulsada por IA puede proporcionar respuestas rápidas y precisas a consultas del mundo real, lo que permite al cliente resolver problemas comunes de forma rápida y sencilla de forma independiente.
Ingestión de URL única
Muchas empresas tienen un conjunto de respuestas publicadas para las preguntas frecuentes de sus clientes disponibles en su sitio web. En este caso, queremos ofrecer a los clientes un chatbot que pueda responder sus preguntas de nuestras preguntas frecuentes publicadas. En la publicación del blog titulada Mejore Amazon Lex con funciones de preguntas frecuentes conversacionales mediante LLM, demostramos cómo puede usar una combinación de Amazon Lex y LlamaIndex para crear un chatbot con la tecnología de sus fuentes de conocimiento existentes, como documentos PDF o Word. Para respaldar una pregunta frecuente simple, basada en un sitio web de preguntas frecuentes, necesitamos crear un proceso de ingestión que pueda rastrear el sitio web y crear incorporaciones que LlamaIndex pueda usar para responder las preguntas de los clientes. En este caso, nos basaremos en el bot creado en el anterior entrada del blog, que consulta esas incrustaciones con la declaración de un usuario y devuelve la respuesta de las preguntas frecuentes del sitio web.
El siguiente diagrama muestra cómo el proceso de ingestión y el bot de Amazon Lex funcionan juntos para nuestra solución.
En el flujo de trabajo de la solución, el sitio web con preguntas frecuentes se ingiere a través de AWS Lambda. Esta función de Lambda rastrea el sitio web y almacena el texto resultante en un Servicio de almacenamiento simple de Amazon (Amazon S3) cubeta. Luego, el depósito S3 activa una función Lambda que usa LlamaIndex para crear incrustaciones que se almacenan en Amazon S3. Cuando llega una pregunta de un usuario final, como "¿Cuál es su política de devoluciones?", el bot de Amazon Lex usa su función Lambda para consultar las incrustaciones utilizando un enfoque basado en RAG con LlamaIndex. Para obtener más información sobre este enfoque y los requisitos previos, consulte la publicación del blog, Mejore Amazon Lex con funciones de preguntas frecuentes conversacionales mediante LLM.
Una vez que se completan los requisitos previos del blog mencionado anteriormente, el primer paso es ingerir las preguntas frecuentes en un repositorio de documentos que LlamaIndex puede vectorizar e indexar. El siguiente código muestra cómo lograr esto:
En el ejemplo anterior, tomamos una URL de sitio web de preguntas frecuentes predefinida de Zappos y la ingerimos usando el EZWebLoader
clase. Con esta clase, navegamos a la URL y cargamos todas las preguntas que están en la página en un índice. Ahora podemos hacer una pregunta como "¿Zappos tiene tarjetas de regalo?" y obtenga las respuestas directamente de nuestras preguntas frecuentes en el sitio web. La siguiente captura de pantalla muestra la consola de prueba del bot de Amazon Lex respondiendo esa pregunta de las preguntas frecuentes.
Pudimos lograr esto porque rastreamos la URL en el primer paso y creamos incrustaciones que LlamaIndex podría usar para buscar la respuesta a nuestra pregunta. La función Lambda de nuestro bot muestra cómo se ejecuta esta búsqueda cada vez que se devuelve la intención alternativa:
Esta solución funciona bien cuando una sola página web tiene todas las respuestas. Sin embargo, la mayoría de los sitios de preguntas frecuentes no están construidos en una sola página. Por ejemplo, en nuestro ejemplo de Zappos, si hacemos la pregunta "¿Tiene una política de igualación de precios?", Obtenemos una respuesta menos que satisfactoria, como se muestra en la siguiente captura de pantalla.
En la interacción anterior, la respuesta de la política de igualación de precios no es útil para nuestro usuario. Esta respuesta es breve porque las preguntas frecuentes a las que se hace referencia son un enlace a una página específica sobre la política de igualación de precios y nuestro rastreo web fue solo para una sola página. Lograr mejores respuestas significará rastrear estos enlaces también. La siguiente sección muestra cómo obtener respuestas a preguntas que requieren dos o más niveles de profundidad de página.
rastreo de nivel N
Cuando rastreamos una página web para conocer las preguntas frecuentes, la información que queremos puede estar contenida en páginas vinculadas. Por ejemplo, en nuestro ejemplo de Zappos, hacemos la pregunta "¿Tiene una política de igualación de precios?" y la respuesta es "Sí, por favor visite aprender más." Si alguien pregunta "¿Cuál es su política de igualación de precios?" entonces queremos dar una respuesta completa con la política. Lograr esto significa que tenemos la necesidad de atravesar enlaces para obtener la información real para nuestro usuario final. Durante el proceso de ingestión, podemos usar nuestro cargador web para encontrar los enlaces de anclaje a otras páginas HTML y luego recorrerlos. El siguiente cambio de código en nuestro rastreador web nos permite encontrar enlaces en las páginas que rastreamos. También incluye alguna lógica adicional para evitar el rastreo circular y permitir un filtro por prefijo.
En el código anterior, introducimos la capacidad de rastrear N niveles de profundidad y proporcionamos un prefijo que nos permite restringir el rastreo solo a las cosas que comienzan con un determinado patrón de URL. En nuestro ejemplo de Zappos, todas las páginas de servicio al cliente están enraizadas desde zappos.com/c
, por lo que lo incluimos como un prefijo para limitar nuestros rastreos a un subconjunto más pequeño y más relevante. El código muestra cómo podemos ingerir hasta dos niveles de profundidad. La lógica Lambda de nuestro bot sigue siendo la misma porque nada ha cambiado, excepto que el rastreador ingiere más documentos.
Ahora tenemos todos los documentos indexados y podemos hacer una pregunta más detallada. En la siguiente captura de pantalla, nuestro bot proporciona la respuesta correcta a la pregunta "¿Tiene una política de igualación de precios?"
Ahora tenemos una respuesta completa a nuestra pregunta sobre la igualación de precios. En lugar de simplemente decir "Sí, vea nuestra política", nos brinda los detalles del rastreo de segundo nivel.
Limpiar
Para evitar incurrir en gastos futuros, proceda con la eliminación de todos los recursos que se implementaron como parte de este ejercicio. Hemos proporcionado una secuencia de comandos para cerrar correctamente el punto final de Sagemaker. Los detalles de uso están en el LÉAME. Además, para eliminar todos los demás recursos que puede ejecutar cdk destroy
en el mismo directorio que los otros comandos cdk para desaprovisionar todos los recursos en su pila.
Conclusión
La capacidad de ingerir un conjunto de preguntas frecuentes en un chatbot permite a sus clientes encontrar las respuestas a sus preguntas con consultas directas y en lenguaje natural. Al combinar el soporte integrado en Amazon Lex para el manejo de respaldo con una solución RAG como LlamaIndex, podemos proporcionar una ruta rápida para que nuestros clientes obtengan respuestas satisfactorias, seleccionadas y aprobadas a las preguntas frecuentes. Al aplicar el rastreo de nivel N en nuestra solución, podemos permitir respuestas que posiblemente abarquen varios enlaces de preguntas frecuentes y proporcionen respuestas más profundas a las consultas de nuestros clientes. Al seguir estos pasos, puede incorporar sin problemas potentes capacidades de preguntas y respuestas basadas en LLM y una ingestión eficiente de URL en su chatbot de Amazon Lex. Esto da como resultado interacciones más precisas, completas y conscientes del contexto con los usuarios.
Sobre los autores
Max Henkel Wallace es ingeniero de desarrollo de software en AWS Lex. Le gusta trabajar aprovechando la tecnología para maximizar el éxito del cliente. Fuera del trabajo, le apasiona cocinar, pasar tiempo con amigos y hacer mochileros.
Canción feng es científico aplicado sénior en AWS AI Labs, especializado en procesamiento de lenguaje natural e inteligencia artificial. Su investigación explora varios aspectos de estos campos, incluido el modelado de diálogo basado en documentos, el razonamiento para diálogos orientados a tareas y la generación de texto interactivo utilizando datos multimodales.
John Baker es un SDE principal en AWS, donde trabaja en procesamiento de lenguaje natural, modelos de lenguaje grande y otros proyectos relacionados con ML/AI. Ha estado en Amazon durante más de 9 años y ha trabajado en AWS, Alexa y Amazon.com. En su tiempo libre, a John le gusta esquiar y realizar otras actividades al aire libre en el noroeste del Pacífico.
- Distribución de relaciones públicas y contenido potenciado por SEO. Consiga amplificado hoy.
- PlatoData.Network Vertical Generativo Ai. Empodérate. Accede Aquí.
- PlatoAiStream. Inteligencia Web3. Conocimiento amplificado. Accede Aquí.
- PlatoESG. Automoción / vehículos eléctricos, Carbón, tecnología limpia, Energía, Ambiente, Solar, Gestión de residuos. Accede Aquí.
- Desplazamientos de bloque. Modernización de la propiedad de compensaciones ambientales. Accede Aquí.
- Fuente: https://aws.amazon.com/blogs/machine-learning/enhance-amazon-lex-with-llms-and-improve-the-faq-experience-using-url-ingestion/
- :posee
- :es
- :no
- :dónde
- $ UP
- 1
- 10
- 100
- 12
- 14
- 16
- 19
- 23
- 36
- 7
- 80
- a
- capacidad
- Poder
- Nuestra Empresa
- lograr
- preciso
- Lograr
- el logro de
- a través de
- actividades
- real
- Adicionales
- Adicionalmente
- AI
- Alimentado por IA
- Alexa
- Todos
- permitir
- Permitir
- permite
- ya haya utilizado
- también
- Amazon
- Amazon lex
- Amazon Web Services
- Amazon.com
- an
- Comercial
- y
- https://www.youtube.com/watch?v=xB-eutXNUMXJtA&feature=youtu.be
- respuestas
- aplicada
- La aplicación de
- enfoque
- aprobado
- somos
- Llega
- artificial
- inteligencia artificial
- AS
- aspectos
- At
- Hoy Disponibles
- evitar
- conscientes
- AWS
- Atrás
- bases
- basado
- BE
- porque
- esto
- comenzar
- "Ser"
- mejores
- Blog
- cuerpo
- Bot
- build
- construido
- incorporado
- negocios
- by
- PUEDEN
- capacidades
- Tarjetas
- case
- a ciertos
- el cambio
- cambiado
- chatterbot
- comprobación
- clase
- cliente
- Cerrar
- código
- COM
- combinación
- combinar
- viniendo
- Algunos
- completar
- exhaustivo
- Consola
- Clientes
- contenida
- contenido
- contenido
- contexto
- conversacional
- convertir
- la conversión de
- correcta
- podría
- Para contrarrestar
- rastreador
- Para crear
- creado
- comisariada
- cliente
- Servicio al Cliente
- Éxito del cliente
- Clientes
- de ciclos
- datos
- profundo
- más profundo
- Predeterminado
- demostrado
- desplegado
- profundidad
- detallado
- detalles
- Desarrollo
- Diálogo
- digital
- mundo digital
- directamente
- documento
- documentos
- DE INSCRIPCIÓN
- descargar
- duplicados
- durante
- e
- cada una
- pasan fácilmente
- eficiente
- más
- permite
- final
- Punto final
- ingeniero
- mejorar
- empresas
- entrada
- Evento
- ejemplo
- Excepto
- excepción
- Haz ejercicio
- existente
- gastos
- experience
- explora
- Preguntas Frecuentes
- Caracteristicas
- Terrenos
- archivos
- filtrar
- Encuentre
- Nombre
- siguiendo
- encontrado
- amigos
- Desde
- función
- futuras
- generación de AHSS
- obtener
- donación
- tarjetas de regalo
- Donar
- dado
- da
- Go
- tenido
- Manejo
- Tienen
- he
- cabeceras
- serviciales
- aquí
- su
- Cómo
- Como Hacer
- Sin embargo
- HTML
- http
- HTTPS
- if
- importar
- mejorar
- in
- incluir
- incluye
- Incluye
- Entrante
- incorporar
- independientemente
- índice
- indexado
- info
- información
- originales
- Las opciones de entrada
- Consultas
- ejemplo
- Intelligence
- intención
- interacción
- interacciones
- interactivo
- dentro
- introducir
- IT
- SUS
- Juan
- jpg
- json
- Clave
- especialistas
- labs
- idioma
- large
- APRENDE:
- Nivel
- aprovechando
- como
- LIMITE LAS
- LINK
- vinculado
- enlaces
- Linux
- Lista
- carga
- cargador
- local
- localmente
- registro
- lógica
- emparejado
- pareo
- Maximizar
- personalizado
- significa
- mensaje
- la vida
- modelado
- modelos
- más,
- MEJOR DE TU
- múltiples
- nombre
- Natural
- Procesamiento natural del lenguaje
- ¿ Necesita ayuda
- Next
- nada
- ahora
- número
- objetos
- of
- LANZAMIENTO
- on
- ONE
- , solamente
- or
- OS
- Otro
- nuestros
- salir
- afuera
- EL DESARROLLADOR
- Costa
- página
- paginas
- parte
- apasionado
- camino
- Patrón de Costura
- (PDF)
- Platón
- Inteligencia de datos de Platón
- PlatónDatos
- Por favor
- política
- posiblemente
- Publicación
- alimentado
- poderoso
- evitar
- precio
- Director de la escuela
- problemas
- tratamiento
- proyecta
- proporcionar
- previsto
- los proveedores
- proporciona un
- publicado
- consultas
- pregunta
- Preguntas
- Búsqueda
- con rapidez
- aumento
- más bien
- RE
- en comunicarse
- lectores
- mundo real
- relacionado
- permanece
- remove
- repositorio
- solicita
- solicitudes
- exigir
- la investigación
- Recursos
- respuesta
- respuestas
- restringir
- resultante
- Resultados
- volvemos
- devoluciones
- raíz
- Ruta
- Ejecutar
- s
- sabio
- mismo
- Científico
- sin problemas
- Buscar
- Sección
- ver
- AUTO
- mayor
- de coches
- proveedores de servicios
- Servicios
- set
- En Corto
- mostrado
- Shows
- cerrar
- sencillos
- simplemente
- soltero
- página web
- Sitios Web
- ranuras
- menores
- So
- Software
- Desarrollo de software ad-hoc
- a medida
- RESOLVER
- algo
- Alguien
- Fuentes
- lapso
- especializada
- soluciones y
- Gastos
- montón
- comienzo
- paso
- pasos
- STORAGE
- tienda
- almacenados
- tiendas
- sencillo
- comercial
- tal
- SOPORTE
- SYS
- ¡Prepárate!
- toma
- Tecnología
- test
- que
- esa
- La
- la información
- su
- Les
- luego
- Estas
- cosas
- así
- aquellos
- a lo largo de
- equipo
- titulada
- a
- de hoy
- juntos
- del IRS
- sorpresa
- verdadero
- try
- dos
- tipo
- Enlance
- us
- Uso
- utilizan el
- usado
- Usuario
- usuarios
- usos
- usando
- diversos
- vía
- Visite
- visitado
- quieres
- fue
- we
- web
- servicios web
- Página web
- WELL
- tuvieron
- cuando
- cuando
- que
- seguirá
- Palabra
- Actividades:
- trabajar juntos
- trabajado
- flujo de trabajo
- trabajando
- funciona
- mundo
- se
- escrito
- X11
- años
- Usted
- tú
- zephyrnet