Lyft dina självbetjäningsassistenter med nya generativa AI-funktioner i Amazon Lex | Amazon webbtjänster

Lyft dina självbetjäningsassistenter med nya generativa AI-funktioner i Amazon Lex | Amazon webbtjänster

I det här inlägget pratar vi om hur generativ AI förändrar konversations-AI-branschen genom att tillhandahålla nya kund- och botbyggarupplevelser, och de nya funktionerna i Amazon Lex som drar fördel av dessa framsteg.

När efterfrågan på konversations-AI fortsätter att växa, letar utvecklare efter sätt att förbättra sina chatbots med mänskliga interaktioner och avancerade funktioner som FAQ-hantering. De senaste genombrotten inom generativ AI leder till betydande förbättringar i förståelsen av naturligt språk som gör konversationssystem mer intelligenta. Genom att träna stora neurala nätverksmodeller på datauppsättningar med biljoner tokens har AI-forskare utvecklat tekniker som gör det möjligt för robotar att förstå mer komplexa frågor, ge nyanserade och mer naturliga mänskliga svar och hantera ett brett spektrum av ämnen. Med dessa nya generativa AI-innovationer kan du skapa virtuella assistenter som känns mer naturliga, intuitiva och hjälpsamma under text- eller röstbaserade självbetjäningsinteraktioner. De snabba framstegen inom generativ AI för automatiserade chatbots och virtuella assistenter betydligt närmare målet att ha verkligt intelligenta, fritt flytande konversationer. Med ytterligare framsteg inom djupinlärning och neurala nätverkstekniker är konversationssystem redo att bli ännu mer flexibla, relaterbara och mänskliga. Den här nya generationen av AI-drivna assistenter kan ge sömlösa självbetjäningsupplevelser i en mängd användningsfall.

Lyft dina självbetjäningsassistenter med nya generativa AI-funktioner i Amazon Lex | Amazon Web Services PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Hur Amazon Bedrock förändrar landskapet för konversations-AI

Amazonas berggrund är ett användarvänligt sätt att bygga och skala generativa AI-applikationer med grundläggande modeller (FM). Amazon Bedrock erbjuder en rad FM:er från ledande leverantörer, så AWS-kunder har flexibilitet och valmöjligheter att använda de bästa modellerna för deras specifika användningsfall.

I dagens snabba värld förväntar vi oss snabb och effektiv kundservice från alla företag. Att tillhandahålla utmärkt kundservice kan dock vara avsevärt utmanande när mängden förfrågningar överstiger de mänskliga resurserna som används för att ta itu med dem. Företag kan övervinna denna utmaning effektivt samtidigt som de tillhandahåller personlig kundservice genom att dra fördel av framsteg inom generativ AI som drivs av stora språkmodeller (LLM).

Under åren har AWS investerat i att demokratisera tillgången till – och förstärka förståelsen av – AI, maskininlärning (ML) och generativ AI. LLM:er kan vara mycket användbara i kontaktcenter genom att tillhandahålla automatiska svar på vanliga frågor, analysera kundsentiment och avsikter att dirigera samtal på lämpligt sätt, generera sammanfattningar av konversationer för att hjälpa agenter och till och med automatiskt generera e-postmeddelanden eller chattsvar på vanliga kundförfrågningar. Genom att hantera repetitiva uppgifter och få insikter från konversationer tillåter LLM:er att kontaktcenteragenter fokuserar på att leverera högre värde genom personlig service och att lösa komplexa problem.

Förbättra kundupplevelsen med vanliga frågor om samtal

Generativ AI har en enorm potential att ge snabba, pålitliga svar på vanliga kundfrågor på ett konversationssätt. Med tillgång till auktoriserade kunskapskällor och LLM:er kan din befintliga Amazon Lex-bot ge användbara, naturliga och korrekta svar på vanliga frågor, som går utöver uppgiftsorienterad dialog. Vårt tillvägagångssätt för Retrieval Augmented Generation (RAG) gör det möjligt för Amazon Lex att dra nytta av både bredden av kunskap som finns tillgänglig i repositories såväl som flytande LLM. Du kan helt enkelt ställa din fråga i fri form, samtalsspråk och få ett naturligt, skräddarsytt svar inom några sekunder. Den nya konversations-FAQ-funktionen i Amazon Lex tillåter botutvecklare och konversationsdesigners att fokusera på att definiera affärslogik snarare än att designa uttömmande FAQ-baserade konversationsflöden inom en bot.

Vi introducerar en inbyggd QnAIntent som använder en LLM för att fråga efter en auktoriserad kunskapskälla och ge ett meningsfullt och kontextuellt svar. Dessutom kan utvecklare konfigurera QnAIntent att peka på specifika kunskapsbassektioner, vilket säkerställer att endast specifika delar av kunskapsinnehållet efterfrågas under körning för att uppfylla användarförfrågningar. Denna förmåga uppfyller behovet för starkt reglerade branscher, såsom finansiella tjänster och hälso- och sjukvård, att endast tillhandahålla svar på överensstämmelsespråk. Konversationsfunktionen för vanliga frågor och svar i Amazon Lex gör det möjligt för organisationer att förbättra inneslutningsgraden samtidigt som de undviker de höga kostnaderna för missade frågor och överföringar av mänskliga representanter.

Lyft dina självbetjäningsassistenter med nya generativa AI-funktioner i Amazon Lex | Amazon Web Services PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Bygga en Amazon Lex-bot med den beskrivande botbyggaren

Att bygga konversationsbotar från grunden är en tidskrävande process som kräver djup kunskap om hur användare interagerar med bots för att förutse potentiella förfrågningar och koda lämpliga svar. Idag spenderar konversationsdesigners och utvecklare många dagar med att skriva kod för att hjälpa till att köra alla möjliga användaråtgärder (avsikter), de olika sätt som användare formulerar sina förfrågningar (yttranden), och den information som behövs från användaren för att slutföra dessa åtgärder (spelautomater).

Den nya beskrivande botbyggningsfunktionen i Amazon Lex använder generativ AI för att påskynda botbyggeprocessen. Istället för att skriva kod kan konversationsdesigners och botutvecklare nu beskriva på vanlig engelska vad de vill att boten ska åstadkomma (till exempel "Ta bokningar för mitt hotell med hjälp av namn och kontaktinformation, resedatum, rumstyp och betalningsinformation"). . Genom att bara använda denna enkla uppmaning kommer Amazon Lex automatiskt att generera avsikter, träningsyttringar, slots, uppmaningar och ett samtalsflöde för att få den beskrivna boten till liv. Genom att tillhandahålla en baslinje-botdesign, minskar den här funktionen oerhört tiden och komplexiteten för att bygga konversationschatbotar, vilket gör att byggaren kan omprioritera ansträngningar för att finjustera konversationsupplevelsen.

Genom att utnyttja kraften i generativ AI med LLM:er gör Amazon Lex det möjligt för utvecklare och icke-tekniska användare att bygga bots helt enkelt genom att beskriva deras mål. Istället för att noggrant koda avsikter, yttranden, slots och så vidare kan utvecklare tillhandahålla en naturlig språkprompt och Amazon Lex kommer automatiskt att generera ett grundläggande botflöde redo för ytterligare förfining. Denna funktion är till en början endast tillgänglig på engelska, men utvecklare kan ytterligare anpassa den AI-genererade boten efter behov innan distributionen, vilket sparar många timmars manuellt utvecklingsarbete.

Förbättra användarupplevelsen med assisterad slotupplösning

När konsumenterna blir mer bekanta med chatbots och interaktiva röstsvarssystem (IVR) förväntar de sig högre nivåer av intelligens inbakad i självbetjäningsupplevelser. Att disambiguera svar som är mer konverserande är absolut nödvändigt för framgång eftersom användarna förväntar sig mer naturliga, mänskliga upplevelser. Med ökande konsumentförtroende för chatbot-funktioner, finns det också en förväntan om förhöjd prestanda från naturlig språkförståelse (NLU). I det sannolika scenariot att ett semantiskt enkelt eller komplext yttrande inte löses korrekt till en plats, kan användarnas förtroende minska. I sådana fall kan en LLM dynamiskt assistera den befintliga Amazon Lex NLU-modellen och säkerställa korrekt slotupplösning även när användaryttringen ligger utanför slotmodellens gränser. I Amazon Lex ger den assisterade slotupplösningsfunktionen botutvecklaren ännu ett verktyg för att öka inneslutningen.

Under körning, när NLU misslyckas med att lösa en lucka under en samtalsväng, kommer Amazon Lex att anropa LLM som valts av botutvecklaren för att hjälpa till med att lösa luckan. Om LLM kan tillhandahålla ett värde vid luckförsök, kan användaren fortsätta med konversationen som vanligt. Till exempel, om en bot frågar "Vilken stad bor försäkringstagaren i?" och användaren svarar "Jag bor i Springfield", LLM kommer att kunna lösa värdet till "Springfield." De kortplatser som stöds för denna funktion inkluderar AMAZON.City, AMAZON.Country, AMAZON.Number, AMAZON.Date, AMAZON.AlphaNumeric (utan regex) och AMAZON.PhoneNumber och AMAZON.Confirmation. Den här funktionen är endast tillgänglig på engelska i skrivande stund.

Förbättra byggarens upplevelse med träning av generering av yttranden

En av de smärtpunkter som botbyggare och konversationsdesigners ofta stöter på är att förutse variationen och mångfalden av svar när de åberopar en avsikt eller ber om platsinformation. När en botutvecklare skapar en ny avsikt måste exempelutlåtanden tillhandahållas för att träna ML-modellen på vilka typer av svar den kan och bör acceptera. Det kan ofta vara svårt att förutse de permutationer på ordspråk och syntax som används av kunder. Med yttrandegenerering använder Amazon Lex grundmodeller som t.ex Amazon Titan att generera träningsyttringar med bara ett klick, utan behov av någon snabb ingenjörskonst.

Yttrandegenerering använder avsiktsnamnet, befintliga yttranden och eventuellt avsiktsbeskrivningen för att generera nya yttranden med en LLM. Botutvecklare och konversationsdesigners kan redigera eller ta bort de genererade yttrandena innan de accepterar dem. Den här funktionen fungerar med både nya och befintliga syften.

Slutsats

De senaste framstegen inom generativ AI har utan tvekan gjort automatiserade konsumentupplevelser bättre. Med Amazon Lex är vi fast beslutna att ingjuta generativ AI i alla aspekter av byggaren och användarupplevelsen. Funktionerna som nämns i det här inlägget är bara början – och vi kan inte vänta med att visa dig vad som komma skall.

För att lära dig mer, se Amazon Lex dokumentation, och prova dessa funktioner på Amazon Lex-konsolen.


Om författarna

Lyft dina självbetjäningsassistenter med nya generativa AI-funktioner i Amazon Lex | Amazon Web Services PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.Anuradha Durfee är senior produktchef i Amazon Lex-teamet och har mer än 7 års erfarenhet av konversations-AI. Hon är fascinerad av röstanvändargränssnitt och att göra tekniken mer tillgänglig genom intuitiv design.

Lyft dina självbetjäningsassistenter med nya generativa AI-funktioner i Amazon Lex | Amazon Web Services PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.Sandeep Srinivasan är senior produktchef på Amazon Lex-teamet. Som en skarp observatör av mänskligt beteende brinner han för kundupplevelse. Han tillbringar sina vakna timmar i skärningspunkten mellan människor, teknik och framtiden.

Tidsstämpel:

Mer från AWS maskininlärning