Mejore sus asistentes de autoservicio con nuevas funciones de IA generativa en Amazon Lex | Servicios web de Amazon

Mejore sus asistentes de autoservicio con nuevas funciones de IA generativa en Amazon Lex | Servicios web de Amazon

En esta publicación, hablamos sobre cómo la IA generativa está cambiando la industria de la IA conversacional al brindar nuevas experiencias para los clientes y los creadores de bots, y las nuevas funciones en Amazon lex que aprovechan estos avances.

A medida que la demanda de IA conversacional continúa creciendo, los desarrolladores buscan formas de mejorar sus chatbots con interacciones similares a las humanas y capacidades avanzadas como el manejo de preguntas frecuentes. Los avances recientes en la IA generativa están generando mejoras significativas en la comprensión del lenguaje natural que hacen que los sistemas conversacionales sean más inteligentes. Al entrenar grandes modelos de redes neuronales en conjuntos de datos con billones de tokens, los investigadores de IA han desarrollado técnicas que permiten a los robots comprender preguntas más complejas, proporcionar respuestas matizadas y más naturales que parezcan humanas y manejar una amplia gama de temas. Con estas nuevas innovaciones de IA generativa, puede crear asistentes virtuales que se sientan más naturales, intuitivos y útiles durante las interacciones de autoservicio basadas en texto o voz. El rápido progreso en la IA generativa está acercando significativamente a los chatbots y asistentes virtuales automatizados al objetivo de tener conversaciones verdaderamente inteligentes y fluidas. Con mayores avances en el aprendizaje profundo y las técnicas de redes neuronales, los sistemas conversacionales están preparados para volverse aún más flexibles, identificables y parecidos a los humanos. Esta nueva generación de asistentes con tecnología de inteligencia artificial puede brindar experiencias de autoservicio perfectas en una multitud de casos de uso.

Mejore sus asistentes de autoservicio con nuevas funciones de IA generativa en Amazon Lex | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.

Cómo Amazon Bedrock está cambiando el panorama de la IA conversacional

lecho rocoso del amazonas es una forma fácil de usar para crear y escalar aplicaciones de IA generativa con modelos fundamentales (FM). Amazon Bedrock ofrece una variedad de FM de proveedores líderes, por lo que los clientes de AWS tienen flexibilidad y opciones para utilizar los mejores modelos para su caso de uso específico.

En el acelerado mundo actual, esperamos de todas las empresas un servicio al cliente rápido y eficiente. Sin embargo, brindar un excelente servicio al cliente puede ser un desafío significativo cuando el volumen de consultas supera los recursos humanos empleados para atenderlas. Las empresas pueden superar este desafío de manera eficiente y al mismo tiempo brindar un servicio al cliente personalizado aprovechando los avances en la IA generativa impulsada por grandes modelos de lenguaje (LLM).

A lo largo de los años, AWS ha invertido en democratizar el acceso y ampliar la comprensión de la IA, el aprendizaje automático (ML) y la IA generativa. Los LLM pueden ser muy útiles en los centros de contacto al proporcionar respuestas automatizadas a preguntas frecuentes, analizar la opinión del cliente y las intenciones de enrutar las llamadas de manera adecuada, generar resúmenes de conversaciones para ayudar a los agentes e incluso generar automáticamente correos electrónicos o respuestas de chat a consultas comunes de los clientes. Al manejar tareas repetitivas y obtener información de las conversaciones, los LLM permiten a los agentes del centro de contacto concentrarse en brindar mayor valor a través de un servicio personalizado y resolver problemas complejos.

Mejorar la experiencia del cliente con preguntas frecuentes conversacionales

La IA generativa tiene un enorme potencial para proporcionar respuestas rápidas y confiables a las preguntas más frecuentes de los clientes de manera conversacional. Con acceso a fuentes de conocimiento autorizadas y LLM, su bot de Amazon Lex existente puede brindar respuestas útiles, naturales y precisas a las preguntas frecuentes, yendo más allá del diálogo orientado a tareas. Nuestro enfoque de generación aumentada de recuperación (RAG) permite a Amazon Lex aprovechar tanto la amplitud del conocimiento disponible en los repositorios como la fluidez de los LLM. Simplemente puede hacer su pregunta en un lenguaje conversacional y libre y recibir una respuesta natural y personalizada en segundos. La nueva función de preguntas frecuentes conversacionales en Amazon Lex permite a los desarrolladores de bots y diseñadores de conversaciones centrarse en definir la lógica empresarial en lugar de diseñar flujos de conversación exhaustivos basados ​​en preguntas frecuentes dentro de un bot.

Estamos introduciendo un QnAIntent integrado que utiliza un LLM para consultar una fuente de conocimiento autorizada y proporcionar una respuesta significativa y contextual. Además, los desarrolladores pueden configurar QnAIntent para que apunte a secciones específicas de la base de conocimientos, asegurando que solo se consulten partes específicas del contenido del conocimiento en tiempo de ejecución para satisfacer las solicitudes de los usuarios. Esta capacidad satisface la necesidad de que industrias altamente reguladas, como los servicios financieros y la atención médica, solo brinden respuestas en un lenguaje compatible. La función de preguntas frecuentes conversacionales de Amazon Lex permite a las organizaciones mejorar las tasas de contención y, al mismo tiempo, evitar los altos costos de las consultas perdidas y las transferencias de representantes humanos.

Mejore sus asistentes de autoservicio con nuevas funciones de IA generativa en Amazon Lex | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.

Creación de un bot de Amazon Lex utilizando el generador de bots descriptivo

Crear bots conversacionales desde cero es un proceso que requiere mucho tiempo y un conocimiento profundo de cómo los usuarios interactúan con los bots para anticipar solicitudes potenciales y codificar respuestas apropiadas. Hoy en día, los diseñadores y desarrolladores de conversaciones dedican muchos días a escribir código para ayudar a ejecutar todas las acciones posibles del usuario (intenciones), las diversas formas en que los usuarios expresan sus solicitudes (enunciados), y la información necesaria del usuario para completar esas acciones (ranuras).

La nueva característica descriptiva de creación de bots en Amazon Lex utiliza IA generativa para acelerar el proceso de creación de bots. En lugar de escribir código, los diseñadores de conversaciones y desarrolladores de bots ahora pueden describir en un lenguaje sencillo lo que quieren que logre el bot (por ejemplo, "Hacer reservas para mi hotel usando nombre e información de contacto, fechas de viaje, tipo de habitación e información de pago"). . Usando solo este sencillo mensaje, Amazon Lex generará automáticamente intenciones, expresiones de entrenamiento, espacios, mensajes y un flujo de conversación para darle vida al bot descrito. Al proporcionar un diseño de bot básico, esta característica reduce enormemente el tiempo y la complejidad de crear chatbots conversacionales, lo que permite al creador volver a priorizar el esfuerzo para ajustar la experiencia conversacional.

Al aprovechar el poder de la IA generativa con los LLM, Amazon Lex permite a los desarrolladores y usuarios no técnicos crear bots simplemente describiendo su objetivo. En lugar de codificar meticulosamente intenciones, expresiones, espacios, etc., los desarrolladores pueden proporcionar un mensaje en lenguaje natural y Amazon Lex generará automáticamente un flujo de bot básico listo para seguir refinando. Inicialmente, esta capacidad solo está disponible en inglés, pero los desarrolladores pueden personalizar aún más el bot generado por IA según sea necesario antes de la implementación, lo que ahorra muchas horas de trabajo de desarrollo manual.

Mejorando la experiencia del usuario con resolución de slots asistida

A medida que los consumidores se familiarizan más con los chatbots y los sistemas de respuesta de voz interactiva (IVR), esperan mayores niveles de inteligencia integrados en las experiencias de autoservicio. Para lograr el éxito es imperativo eliminar respuestas que sean más conversacionales, ya que los usuarios esperan experiencias más naturales y humanas. Con la creciente confianza de los consumidores en las capacidades de los chatbots, también existe la expectativa de un rendimiento elevado de la comprensión del lenguaje natural (NLU). En el escenario probable de que una expresión semánticamente simple o compleja no se resuelva adecuadamente en una ranura, la confianza del usuario puede disminuir. En tales casos, un LLM puede ayudar dinámicamente al modelo NLU de Amazon Lex existente y garantizar una resolución de ranura precisa incluso cuando la expresión del usuario está más allá de los límites del modelo de ranura. En Amazon Lex, la función de resolución de ranuras asistida proporciona al desarrollador del bot otra herramienta más para aumentar la contención.

Durante el tiempo de ejecución, cuando NLU no logra resolver un espacio durante un turno de conversación, Amazon Lex llamará al LLM seleccionado por el desarrollador del bot para ayudar a resolver el espacio. Si el LLM puede proporcionar un valor al reintentar el espacio, el usuario puede continuar con la conversación normalmente. Por ejemplo, si al volver a intentar el espacio, un robot pregunta "¿En qué ciudad reside el titular de la póliza?" y el usuario responde "Vivo en Springfield", el LLM podrá resolver el valor en "Springfield". Los tipos de espacios admitidos para esta función incluyen AMAZON.City, AMAZON.Country, AMAZON.Number, AMAZON.Date, AMAZON.AlphaNumeric (sin expresiones regulares), AMAZON.PhoneNumber y AMAZON.Confirmation. Esta función solo está disponible en inglés en el momento de escribir este artículo.

Mejorar la experiencia del constructor con la generación de expresiones de entrenamiento

Uno de los puntos débiles que suelen encontrar los creadores de bots y los diseñadores conversacionales es anticipar la variación y diversidad de respuestas al invocar una intención o solicitar información sobre un espacio. Cuando un desarrollador de bot crea una nueva intención, se deben proporcionar expresiones de muestra para entrenar el modelo de ML sobre los tipos de respuestas que puede y debe aceptar. A menudo puede resultar difícil anticipar las permutaciones de palabrería y sintaxis utilizadas por los clientes. Con la generación de expresiones, Amazon Lex utiliza modelos fundamentales como Titán Amazonas para generar expresiones de capacitación con un solo clic, sin necesidad de ingeniería inmediata.

La generación de expresiones utiliza el nombre de la intención, las expresiones existentes y, opcionalmente, la descripción de la intención para generar nuevas expresiones con un LLM. Los desarrolladores de bots y los diseñadores conversacionales pueden editar o eliminar las expresiones generadas antes de aceptarlas. Esta característica funciona tanto con intenciones nuevas como existentes.

Conclusión

Sin duda, los avances recientes en la IA generativa han mejorado las experiencias automatizadas de los consumidores. Con Amazon Lex, nos comprometemos a incorporar IA generativa en todos los aspectos de la experiencia del creador y del usuario. Las funciones mencionadas en esta publicación son solo el comienzo y estamos ansiosos por mostrarle lo que está por venir.

Para obtener más información, consulte Documentación de Amazon Lexy pruebe estas funciones en la consola de Amazon Lex.


Sobre los autores

Mejore sus asistentes de autoservicio con nuevas funciones de IA generativa en Amazon Lex | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.Anuradha Durfee Es gerente senior de productos en el equipo de Amazon Lex y tiene más de 7 años de experiencia en IA conversacional. Le fascinan las interfaces de usuario de voz y hacer que la tecnología sea más accesible a través de un diseño intuitivo.

Mejore sus asistentes de autoservicio con nuevas funciones de IA generativa en Amazon Lex | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.Sandeep Srinivasan es gerente senior de productos en el equipo de Amazon Lex. Como agudo observador del comportamiento humano, le apasiona la experiencia del cliente. Pasa sus horas de vigilia en la intersección de las personas, la tecnología y el futuro.

Sello de tiempo:

Mas de Aprendizaje automático de AWS