Améliorez vos assistants en libre-service avec de nouvelles fonctionnalités d'IA générative dans Amazon Lex | Services Web Amazon

Améliorez vos assistants en libre-service avec de nouvelles fonctionnalités d'IA générative dans Amazon Lex | Services Web Amazon

Dans cet article, nous expliquons comment l'IA générative change le secteur de l'IA conversationnelle en offrant de nouvelles expériences aux clients et aux créateurs de robots, ainsi que les nouvelles fonctionnalités de Amazon Lex qui profitent de ces avancées.

Alors que la demande en IA conversationnelle continue de croître, les développeurs cherchent des moyens d’améliorer leurs chatbots avec des interactions de type humain et des fonctionnalités avancées telles que la gestion des FAQ. Les avancées récentes dans le domaine de l’IA générative conduisent à des améliorations significatives dans la compréhension du langage naturel, qui rendent les systèmes conversationnels plus intelligents. En entraînant de grands modèles de réseaux neuronaux sur des ensembles de données contenant des milliards de jetons, les chercheurs en IA ont développé des techniques qui permettent aux robots de comprendre des questions plus complexes, de fournir des réponses nuancées et plus naturelles à consonance humaine et de traiter un large éventail de sujets. Grâce à ces nouvelles innovations en matière d'IA générative, vous pouvez créer des assistants virtuels plus naturels, plus intuitifs et plus utiles lors des interactions en libre-service textuelles ou vocales. Les progrès rapides de l’IA générative rapprochent considérablement les chatbots automatisés et les assistants virtuels de l’objectif d’avoir des conversations véritablement intelligentes et fluides. Avec les progrès des techniques d’apprentissage profond et de réseaux neuronaux, les systèmes conversationnels sont sur le point de devenir encore plus flexibles, plus accessibles et plus humains. Cette nouvelle génération d’assistants basés sur l’IA peut offrir des expériences en libre-service fluides dans une multitude de cas d’utilisation.

Améliorez vos assistants en libre-service avec de nouvelles fonctionnalités d'IA générative dans Amazon Lex | Amazon Web Services PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Comment Amazon Bedrock change le paysage de l'IA conversationnelle

Socle amazonien est un moyen convivial de créer et de faire évoluer des applications d'IA générative avec des modèles fondamentaux (FM). Amazon Bedrock propose une gamme de FM provenant de fournisseurs de premier plan, afin que les clients AWS aient la flexibilité et le choix d'utiliser les meilleurs modèles pour leur cas d'utilisation spécifique.

Dans le monde en évolution rapide d’aujourd’hui, nous attendons de chaque entreprise un service client rapide et efficace. Cependant, fournir un excellent service client peut s’avérer très difficile lorsque le volume des demandes dépasse les ressources humaines employées pour y répondre. Les entreprises peuvent relever ce défi efficacement tout en fournissant un service client personnalisé en tirant parti des progrès de l'IA générative alimentés par de grands modèles de langage (LLM).

Au fil des années, AWS a investi dans la démocratisation de l'accès et dans l'amplification de la compréhension de l'IA, de l'apprentissage automatique (ML) et de l'IA générative. Les LLM peuvent être très utiles dans les centres de contact en fournissant des réponses automatisées aux questions fréquemment posées, en analysant le sentiment et les intentions des clients pour acheminer les appels de manière appropriée, en générant des résumés de conversations pour aider les agents et même en générant automatiquement des réponses par e-mail ou par chat aux demandes courantes des clients. En gérant les tâches répétitives et en tirant des enseignements des conversations, les LLM permettent aux agents des centres de contact de se concentrer sur la fourniture d'une valeur plus élevée grâce à un service personnalisé et à la résolution de problèmes complexes.

Améliorer l'expérience client avec des FAQ conversationnelles

L'IA générative a un énorme potentiel pour fournir des réponses rapides et fiables aux questions fréquemment posées par les clients, de manière conversationnelle. Avec un accès à des sources de connaissances et à des LLM autorisés, votre robot Amazon Lex existant peut fournir des réponses utiles, naturelles et précises aux FAQ, allant au-delà du dialogue axé sur les tâches. Notre approche Retrieval Augmented Generation (RAG) permet à Amazon Lex d'exploiter à la fois l'étendue des connaissances disponibles dans les référentiels ainsi que la maîtrise des LLM. Vous pouvez simplement poser votre question dans un langage conversationnel libre et recevoir une réponse naturelle et personnalisée en quelques secondes. La nouvelle fonctionnalité FAQ conversationnelle d'Amazon Lex permet aux développeurs de bots et aux concepteurs de conversations de se concentrer sur la définition de la logique métier plutôt que sur la conception de flux de conversation exhaustifs basés sur des FAQ au sein d'un bot.

Nous introduisons un QnAIntent intégré qui utilise un LLM pour interroger une source de connaissances autorisée et fournir une réponse significative et contextuelle. De plus, les développeurs peuvent configurer QnAIntent pour qu'il pointe vers des sections spécifiques de la base de connaissances, garantissant ainsi que seules des parties spécifiques du contenu des connaissances sont interrogées au moment de l'exécution pour répondre aux demandes des utilisateurs. Cette fonctionnalité répond au besoin des secteurs hautement réglementés, tels que les services financiers et la santé, de fournir uniquement des réponses dans un langage conforme. La fonctionnalité FAQ conversationnelle d'Amazon Lex permet aux organisations d'améliorer les taux de confinement tout en évitant les coûts élevés liés aux requêtes manquées et aux transferts de représentants humains.

Améliorez vos assistants en libre-service avec de nouvelles fonctionnalités d'IA générative dans Amazon Lex | Amazon Web Services PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Création d'un bot Amazon Lex à l'aide du générateur de bot descriptif

Créer des robots conversationnels à partir de zéro est un processus long qui nécessite une connaissance approfondie de la manière dont les utilisateurs interagissent avec les robots afin d'anticiper les demandes potentielles et de coder les réponses appropriées. Aujourd'hui, les concepteurs et développeurs de conversations passent plusieurs jours à écrire du code pour aider à exécuter toutes les actions possibles des utilisateurs (intentions), les différentes façons dont les utilisateurs formulent leurs demandes (déclarations) et les informations nécessaires à l'utilisateur pour effectuer ces actions (fentes).

La nouvelle fonctionnalité descriptive de création de robots dans Amazon Lex utilise l'IA générative pour accélérer le processus de création de robots. Au lieu d'écrire du code, les concepteurs de conversations et les développeurs de robots peuvent désormais décrire dans un anglais simple ce qu'ils souhaitent que le robot accomplisse (par exemple, « Prendre des réservations pour mon hôtel en utilisant le nom et les coordonnées, les dates de voyage, le type de chambre et les informations de paiement ») . En utilisant uniquement cette simple invite, Amazon Lex générera automatiquement des intentions, des énoncés de formation, des créneaux horaires, des invites et un flux de conversation pour donner vie au robot décrit. En fournissant une conception de base de bot, cette fonctionnalité réduit considérablement le temps et la complexité de création de chatbots conversationnels, permettant au constructeur de redéfinir les priorités pour affiner l'expérience conversationnelle.

En exploitant la puissance de l'IA générative avec les LLM, Amazon Lex permet aux développeurs et aux utilisateurs non techniques de créer des robots simplement en décrivant leur objectif. Plutôt que de coder méticuleusement les intentions, les énoncés, les emplacements, etc., les développeurs peuvent fournir une invite en langage naturel et Amazon Lex générera automatiquement un flux de robot de base prêt à être affiné davantage. Cette fonctionnalité n'est initialement disponible qu'en anglais, mais les développeurs peuvent personnaliser davantage le bot généré par l'IA selon leurs besoins avant le déploiement, économisant ainsi de nombreuses heures de travail de développement manuel.

Améliorer l'expérience utilisateur grâce à la résolution assistée des emplacements

À mesure que les consommateurs se familiarisent avec les chatbots et les systèmes de réponse vocale interactive (RVI), ils s'attendent à des niveaux plus élevés d'intelligence intégrés dans les expériences en libre-service. Il est impératif de lever toute ambiguïté sur les réponses et de les rendre plus conversationnelles, car les utilisateurs s'attendent à des expériences plus naturelles et plus humaines. Avec la confiance croissante des consommateurs dans les capacités des chatbots, on s’attend également à des performances élevées en matière de compréhension du langage naturel (NLU). Dans le scénario probable où un énoncé sémantiquement simple ou complexe n’est pas correctement résolu en un slot, la confiance de l’utilisateur peut diminuer. Dans de tels cas, un LLM peut assister dynamiquement le modèle Amazon Lex NLU existant et garantir une résolution précise du slot même lorsque l'énoncé de l'utilisateur dépasse les limites du modèle de slot. Dans Amazon Lex, la fonctionnalité de résolution assistée des emplacements fournit au développeur de robots un autre outil permettant d'augmenter le confinement.

Pendant l'exécution, lorsque NLU ne parvient pas à résoudre un emplacement au cours d'un tour de conversation, Amazon Lex appelle le LLM sélectionné par le développeur du bot pour l'aider à résoudre l'emplacement. Si le LLM est en mesure de fournir une valeur lors d'une nouvelle tentative de créneau, l'utilisateur peut poursuivre la conversation normalement. Par exemple, si lors d'une nouvelle tentative de créneau, un robot demande « Dans quelle ville réside l'assuré ? » et l'utilisateur répond « J'habite à Springfield », le LLM sera en mesure de résoudre la valeur en « Springfield ». Les types d'emplacements pris en charge pour cette fonctionnalité incluent AMAZON.City, AMAZON.Country, AMAZON.Number, AMAZON.Date, AMAZON.AlphaNumeric (sans regex), AMAZON.PhoneNumber et AMAZON.Confirmation. Cette fonctionnalité n’est disponible qu’en anglais au moment de la rédaction.

Améliorer l'expérience du constructeur grâce à la génération d'énoncés de formation

L’un des problèmes que rencontrent souvent les créateurs de robots et les concepteurs conversationnels est d’anticiper la variation et la diversité des réponses lors de l’invocation d’une intention ou de la sollicitation d’informations sur un emplacement. Lorsqu'un développeur de robot crée une nouvelle intention, des exemples d'énoncés doivent être fournis pour entraîner le modèle ML sur les types de réponses qu'il peut et doit accepter. Il peut souvent être difficile d'anticiper les permutations du verbiage et de la syntaxe utilisées par les clients. Avec la génération d'énoncés, Amazon Lex utilise des modèles fondamentaux tels que Titan d'Amazonie pour générer des énoncés de formation en un seul clic, sans nécessiter aucune ingénierie rapide.

La génération d'énoncés utilise le nom de l'intention, les énoncés existants et éventuellement la description de l'intention pour générer de nouveaux énoncés avec un LLM. Les développeurs de robots et les concepteurs conversationnels peuvent modifier ou supprimer les énoncés générés avant de les accepter. Cette fonctionnalité fonctionne avec les intentions nouvelles et existantes.

Conclusion

Les progrès récents de l’IA générative ont sans aucun doute amélioré l’expérience automatisée des consommateurs. Avec Amazon Lex, nous nous engageons à intégrer l'IA générative dans tous les aspects de l'expérience du constructeur et de l'utilisateur. Les fonctionnalités mentionnées dans cet article ne sont qu'un début et nous avons hâte de vous montrer ce qui va arriver.

Pour en savoir plus, consultez Documentation AmazonLex, et essayez ces fonctionnalités sur la console Amazon Lex.


À propos des auteurs

Améliorez vos assistants en libre-service avec de nouvelles fonctionnalités d'IA générative dans Amazon Lex | Amazon Web Services PlatoBlockchain Data Intelligence. Recherche verticale. Aï.Anuradha Durfee est chef de produit senior au sein de l'équipe Amazon Lex et possède plus de 7 ans d'expérience dans l'IA conversationnelle. Elle est fascinée par les interfaces utilisateur vocales et par la nécessité de rendre la technologie plus accessible grâce à une conception intuitive.

Améliorez vos assistants en libre-service avec de nouvelles fonctionnalités d'IA générative dans Amazon Lex | Amazon Web Services PlatoBlockchain Data Intelligence. Recherche verticale. Aï.Sandeep Srinivasan est chef de produit senior au sein de l'équipe Amazon Lex. Fin observateur du comportement humain, il est passionné par l’expérience client. Il passe ses heures d'éveil à l'intersection des gens, de la technologie et de l'avenir.

Horodatage:

Plus de Apprentissage automatique AWS