Podnieś poziom swoich asystentów samoobsługowych dzięki nowym generatywnym funkcjom AI w Amazon Lex | Usługi internetowe Amazona

Podnieś poziom swoich asystentów samoobsługowych dzięki nowym generatywnym funkcjom AI w Amazon Lex | Usługi internetowe Amazona

W tym poście mówimy o tym, jak generatywna sztuczna inteligencja zmienia branżę konwersacyjnej sztucznej inteligencji, zapewniając nowe doświadczenia klientom i twórcom botów, a także nowe funkcje w Amazonka Lex które korzystają z tych osiągnięć.

Ponieważ zapotrzebowanie na konwersacyjną sztuczną inteligencję stale rośnie, programiści szukają sposobów na ulepszenie swoich chatbotów o interakcje przypominające ludzkie i zaawansowane możliwości, takie jak obsługa często zadawanych pytań. Niedawne przełomy w dziedzinie generatywnej sztucznej inteligencji prowadzą do znacznej poprawy zrozumienia języka naturalnego, dzięki czemu systemy konwersacyjne stają się bardziej inteligentne. Ucząc duże modele sieci neuronowych na zbiorach danych zawierających biliony tokenów, badacze sztucznej inteligencji opracowali techniki, które pozwalają botom rozumieć bardziej złożone pytania, zapewniać dopracowane i bardziej naturalne odpowiedzi brzmiące jak człowiek oraz zajmować się szerokim zakresem tematów. Dzięki tym nowym innowacjom generatywnej sztucznej inteligencji możesz tworzyć wirtualnych asystentów, którzy będą bardziej naturalni, intuicyjni i pomocni podczas samoobsługowych interakcji tekstowych lub głosowych. Szybki postęp w dziedzinie generatywnej sztucznej inteligencji znacznie przybliża zautomatyzowane chatboty i wirtualnych asystentów do celu, jakim jest prowadzenie naprawdę inteligentnych, płynnych rozmów. Dzięki dalszym postępom w technikach głębokiego uczenia się i sieci neuronowych systemy konwersacyjne staną się jeszcze bardziej elastyczne, powiązane i podobne do ludzkich. Ta nowa generacja asystentów wykorzystujących sztuczną inteligencję może zapewnić bezproblemową samoobsługę w wielu przypadkach użycia.

Elevate your self-service assistants with new generative AI features in Amazon Lex | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Jak Amazon Bedrock zmienia krajobraz konwersacyjnej sztucznej inteligencji

Amazońska skała macierzysta to przyjazny dla użytkownika sposób tworzenia i skalowania generatywnych aplikacji AI za pomocą modeli podstawowych (FM). Amazon Bedrock oferuje szeroką gamę FM od wiodących dostawców, dzięki czemu klienci AWS mają elastyczność i możliwość korzystania z najlepszych modeli dla swojego konkretnego przypadku użycia.

W dzisiejszym dynamicznym świecie od każdej firmy oczekujemy szybkiej i sprawnej obsługi klienta. Jednak zapewnienie doskonałej obsługi klienta może stanowić poważne wyzwanie, gdy liczba zapytań przekracza zasoby ludzkie zatrudnione do ich rozwiązania. Firmy mogą skutecznie stawić czoła temu wyzwaniu, zapewniając jednocześnie spersonalizowaną obsługę klienta, korzystając z postępów w generatywnej sztucznej inteligencji opartej na dużych modelach językowych (LLM).

Przez lata AWS inwestował w demokratyzację dostępu do sztucznej inteligencji, uczenia maszynowego (ML) i generatywnej sztucznej inteligencji oraz poszerzanie jej zrozumienia. LLM mogą być bardzo przydatne w contact center, zapewniając automatyczne odpowiedzi na często zadawane pytania, analizując nastroje i zamiary klientów w celu odpowiedniego kierowania połączeń, generując podsumowania rozmów, aby pomóc agentom, a nawet automatycznie generując e-maile lub odpowiedzi na czacie na typowe zapytania klientów. Realizując powtarzalne zadania i uzyskując wnioski z rozmów, LLM pozwalają agentom contact center skupić się na dostarczaniu wyższej wartości poprzez spersonalizowaną obsługę i rozwiązywanie złożonych problemów.

Poprawa jakości obsługi klienta dzięki konwersacyjnym odpowiedziom na najczęściej zadawane pytania

Generatywna sztuczna inteligencja ma ogromny potencjał w zakresie zapewniania szybkich i niezawodnych odpowiedzi na najczęściej zadawane pytania klientów w sposób konwersacyjny. Dzięki dostępowi do autoryzowanych źródeł wiedzy i LLM Twój istniejący bot Amazon Lex może udzielać pomocnych, naturalnych i dokładnych odpowiedzi na często zadawane pytania, wykraczając poza dialog zorientowany na zadania. Nasze podejście do generowania rozszerzonego wyszukiwania (RAG) pozwala firmie Amazon Lex wykorzystać zarówno szeroki zakres wiedzy dostępnej w repozytoriach, jak i płynność LLM. Możesz po prostu zadać pytanie w swobodnej formie, potocznym językiem i otrzymać naturalną, dostosowaną do potrzeb odpowiedź w ciągu kilku sekund. Nowa funkcja konwersacyjnych często zadawanych pytań w Amazon Lex pozwala twórcom botów i projektantom konwersacji skupić się na definiowaniu logiki biznesowej, zamiast projektować wyczerpujące przebiegi rozmów w bocie oparte na często zadawanych pytaniach.

Przedstawiamy wbudowaną funkcję QnAItent, która wykorzystuje LLM do wysyłania zapytań do autoryzowanego źródła wiedzy i zapewnia znaczącą i kontekstową odpowiedź. Ponadto programiści mogą skonfigurować QnAItent tak, aby wskazywał określone sekcje bazy wiedzy, zapewniając, że w czasie wykonywania będą odpytywane tylko określone części treści wiedzy w celu spełnienia żądań użytkowników. Funkcja ta zaspokaja potrzebę, aby w branżach podlegających ścisłym regulacjom, takim jak usługi finansowe i opieka zdrowotna, udzielać odpowiedzi wyłącznie w zgodnym z przepisami języku. Funkcja konwersacyjnego FAQ w Amazon Lex pozwala organizacjom poprawić wskaźniki powstrzymywania, jednocześnie unikając wysokich kosztów nieodebranych zapytań i transferów przedstawicieli ludzkich.

Elevate your self-service assistants with new generative AI features in Amazon Lex | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Budowanie bota Amazon Lex za pomocą opisowego narzędzia do tworzenia botów

Tworzenie od podstaw botów konwersacyjnych to czasochłonny proces, który wymaga głębokiej wiedzy na temat interakcji użytkowników z botami, aby przewidywać potencjalne żądania i kodować odpowiednie odpowiedzi. Obecnie projektanci i programiści konwersacji spędzają wiele dni na pisaniu kodu, który pomaga wykonywać wszystkie możliwe działania użytkownika (intencje), różne sposoby formułowania żądań przez użytkowników (wypowiedzi) oraz informacje potrzebne użytkownikowi do wykonania tych działań (automatach).

Nowa funkcja opisowego budowania botów w Amazon Lex wykorzystuje generatywną sztuczną inteligencję w celu przyspieszenia procesu tworzenia botów. Zamiast pisać kod, projektanci konwersacji i twórcy botów mogą teraz opisać prostym angielskim, co mają osiągnąć bot (na przykład „Przyjmuj rezerwacje w moim hotelu, używając imienia i nazwiska oraz danych kontaktowych, dat podróży, rodzaju pokoju i informacji o płatności”) . Używając tylko tego prostego podpowiedzi, Amazon Lex automatycznie wygeneruje intencje, wypowiedzi szkoleniowe, miejsca, podpowiedzi i przebieg konwersacji, aby ożywić opisywanego bota. Zapewniając podstawowy projekt bota, funkcja ta ogromnie skraca czas i złożoność tworzenia chatbotów konwersacyjnych, umożliwiając twórcy zmianę priorytetów w zakresie dostrojenia konwersacji.

Wykorzystując moc generatywnej sztucznej inteligencji w LLM, Amazon Lex umożliwia programistom i użytkownikom nietechnicznym tworzenie botów po prostu opisując swój cel. Zamiast skrupulatnie kodować intencje, wyrażenia, sloty itd., programiści mogą zapewnić podpowiedzi w języku naturalnym, a Amazon Lex automatycznie wygeneruje podstawowy przepływ bota, gotowy do dalszego udoskonalenia. Ta funkcja jest początkowo dostępna tylko w języku angielskim, ale programiści mogą przed wdrożeniem dodatkowo dostosować bota generowanego przez sztuczną inteligencję do potrzeb, oszczędzając wiele godzin ręcznej pracy programistycznej.

Poprawa komfortu użytkownika dzięki wspomaganej rozdzielczości szczelin

W miarę jak konsumenci coraz lepiej zaznajomią się z chatbotami i interaktywnymi systemami odpowiedzi głosowej (IVR), oczekują wyższego poziomu inteligencji wdrożonej w doświadczeniach samoobsługi. Ujednoznaczniające i bardziej konwersacyjne odpowiedzi są niezbędne do osiągnięcia sukcesu, ponieważ użytkownicy oczekują bardziej naturalnych, ludzkich doświadczeń. Wraz ze wzrostem zaufania konsumentów do możliwości chatbota oczekuje się również zwiększonej wydajności w zakresie rozumienia języka naturalnego (NLU). W prawdopodobnym scenariuszu, w którym semantycznie prosta lub złożona wypowiedź nie zostanie poprawnie przypisana do szczeliny, pewność użytkownika może spaść. W takich przypadkach LLM może dynamicznie wspierać istniejący model Amazon Lex NLU i zapewniać dokładną rozdzielczość szczeliny, nawet jeśli wypowiedź użytkownika wykracza poza granice modelu szczeliny. W Amazon Lex funkcja wspomaganego rozpoznawania szczelin zapewnia twórcy bota kolejne narzędzie umożliwiające zwiększenie bezpieczeństwa.

W czasie wykonywania, gdy NLU nie rozwiąże slotu podczas tury konwersacji, Amazon Lex zadzwoni do LLM wybranego przez twórcę bota, aby pomóc w rozwiązaniu slotu. Jeśli LLM jest w stanie podać wartość po ponownej próbie w slocie, użytkownik może kontynuować rozmowę w normalny sposób. Na przykład, jeśli po ponownym uruchomieniu slotu bot zapyta „W jakim mieście mieszka ubezpieczający?” a użytkownik odpowie „Mieszkam w Springfield”, LLM będzie w stanie rozpoznać wartość na „Springfield”. Obsługiwane typy slotów dla tej funkcji to AMAZON.City, AMAZON.Country, AMAZON.Number, AMAZON.Date, AMAZON.AlphaNumeric (bez wyrażenia regularnego) oraz AMAZON.PhoneNumber i AMAZON.Confirmation. W chwili pisania tego tekstu funkcja ta jest dostępna wyłącznie w języku angielskim.

Ulepszanie środowiska konstruktora dzięki generowaniu wypowiedzi szkoleniowych

Jednym z problemów, z jakimi często spotykają się twórcy botów i projektanci konwersacji, jest przewidywanie zmienności i różnorodności reakcji podczas wywoływania zamiaru lub uzyskiwania informacji o slocie. Gdy twórca bota tworzy nową intencję, należy udostępnić przykładowe wypowiedzi, aby wytrenować model uczenia maszynowego w zakresie typów odpowiedzi, które może i powinien akceptować. Często trudno jest przewidzieć permutacje słownictwa i składni używanej przez klientów. Przy generowaniu wypowiedzi Amazon Lex wykorzystuje podstawowe modele, takie jak Amazon Tytan do generowania wypowiedzi szkoleniowych za pomocą jednego kliknięcia, bez konieczności szybkiego projektowania.

Generowanie wypowiedzi używa nazwy intencji, istniejących wypowiedzi i opcjonalnie opisu intencji w celu wygenerowania nowych wypowiedzi za pomocą LLM. Twórcy botów i projektanci konwersacji mogą edytować lub usuwać wygenerowane wypowiedzi przed ich zaakceptowaniem. Ta funkcja działa zarówno z nowymi, jak i istniejącymi intencjami.

Wnioski

Ostatnie postępy w dziedzinie generatywnej sztucznej inteligencji niewątpliwie poprawiły zautomatyzowane doświadczenia konsumentów. Dzięki Amazon Lex angażujemy się we wdrażanie generatywnej sztucznej inteligencji w każdym aspekcie doświadczenia konstruktora i użytkownika. Funkcje wspomniane w tym poście to dopiero początek — nie możemy się doczekać, aż pokażemy Ci, co będzie dalej.

Aby dowiedzieć się więcej, zapoznaj się z Dokumentacja Amazona Lexai wypróbuj te funkcje na konsoli Amazon Lex.


O autorach

Elevate your self-service assistants with new generative AI features in Amazon Lex | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Anuradę Durfee jest starszym menedżerem produktu w zespole Amazon Lex i ma ponad 7-letnie doświadczenie w konwersacyjnej sztucznej inteligencji. Fascynują ją głosowe interfejsy użytkownika i zwiększanie dostępności technologii poprzez intuicyjne projektowanie.

Elevate your self-service assistants with new generative AI features in Amazon Lex | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Sandeepa Srinivasana jest starszym menedżerem produktu w zespole Amazon Lex. Jako uważny obserwator ludzkich zachowań, pasjonuje go doświadczenie klienta. Spędza swoje dni na styku ludzi, technologii i przyszłości.

Znak czasu:

Więcej z Uczenie maszynowe AWS