Podróż generatywnego wirtualnego asystenta AI PGA TOUR, od koncepcji, przez rozwój, aż po prototyp | Usługi internetowe Amazona

Podróż generatywnego wirtualnego asystenta AI PGA TOUR, od koncepcji, przez rozwój, aż po prototyp | Usługi internetowe Amazona

To jest post gościnny, którego współautorem jest Scott Gutterman z PGA TOUR.

Generatywna sztuczna inteligencja (generative AI) otworzyła nowe możliwości budowania inteligentnych systemów. Niedawne ulepszenia modeli dużych języków opartych na sztucznej inteligencji (LLM) umożliwiły ich wykorzystanie w różnych aplikacjach związanych z wyszukiwaniem informacji. Biorąc pod uwagę źródła danych, firmy LLM zapewniły narzędzia, które pozwoliły nam zbudować chatbota z pytaniami i odpowiedziami w ciągu kilku tygodni, zamiast tego, co mogło zająć lata wcześniej i prawdopodobnie przy gorszej wydajności. Opracowaliśmy rozwiązanie typu Retrieval-Augmented-Generation (RAG), które umożliwiłoby PGA TOUR stworzenie prototypu przyszłej platformy angażującej fanów, która mogłaby udostępnić fanom swoje dane w interaktywny sposób w formacie konwersacyjnym.

Używanie danych strukturalnych do odpowiadania na pytania wymaga skutecznego wyodrębniania danych istotnych dla zapytania użytkownika. Sformułowaliśmy podejście zamiany tekstu na SQL, w którym zapytanie użytkownika w języku naturalnym jest konwertowane na instrukcję SQL przy użyciu LLM. SQL jest uruchamiany przez Amazonka Atena zwrócić odpowiednie dane. Dane te są ponownie przekazywane LLM, który jest proszony o udzielenie odpowiedzi na zapytanie użytkownika dotyczące danych.

Korzystanie z danych tekstowych wymaga indeksu, którego można użyć do wyszukiwania i zapewniania odpowiedniego kontekstu LLM w celu odpowiedzi na zapytanie użytkownika. Aby umożliwić szybkie wyszukiwanie informacji, używamy Amazonka Kendra jako indeks tych dokumentów. Gdy użytkownicy zadają pytania, nasz wirtualny asystent szybko przeszukuje indeks Amazon Kendra, aby znaleźć odpowiednie informacje. Amazon Kendra wykorzystuje przetwarzanie języka naturalnego (NLP), aby zrozumieć zapytania użytkowników i znaleźć najbardziej odpowiednie dokumenty. Odpowiednie informacje są następnie przekazywane LLM w celu wygenerowania ostatecznej odpowiedzi. Nasze ostateczne rozwiązanie stanowi połączenie podejścia zamiany tekstu na SQL i tekstu RAG.

W tym poście podkreślamy, jak Centrum Innowacji Generacyjnej Sztucznej Inteligencji AWS współpracował z Usługi profesjonalne AWS i PGA TOUR opracować prototyp wirtualnego asystenta przy użyciu Amazońska skała macierzysta które mogłoby umożliwić fanom wyodrębnienie informacji o dowolnym wydarzeniu, zawodniku, dołku lub poziomie strzału w płynny i interaktywny sposób. Amazon Bedrock to w pełni zarządzana usługa oferująca wybór wysokowydajnych modeli podstawowych (FM) od wiodących firm zajmujących się sztuczną inteligencją, takich jak AI21 Labs, Anthropic, Cohere, Meta, Stability AI i Amazon za pośrednictwem jednego interfejsu API, wraz z szerokim zestawem możliwości potrzebne do tworzenia generatywnych aplikacji AI zapewniających bezpieczeństwo, prywatność i odpowiedzialną sztuczną inteligencję.

Rozwój: Przygotowanie danych

Jak w przypadku każdego projektu opartego na danych, wydajność będzie tak dobra, jak dane. Przetworzyliśmy dane, aby umożliwić LLM skuteczne przeszukiwanie i pobieranie odpowiednich danych.

W przypadku tabelarycznych danych dotyczących konkurencji skupiliśmy się na podzbiorze danych odpowiadającym największej liczbie zapytań użytkowników i intuicyjnie oznaczyliśmy kolumny, tak aby były łatwiejsze do zrozumienia dla LLM. Stworzyliśmy także kilka kolumn pomocniczych, aby pomóc LLM zrozumieć koncepcje, z którymi w przeciwnym razie mógłby mieć trudności. Na przykład, jeśli golfista odda jeden strzał mniej niż norma (np. trafi do dołka w 3 strzałach na normie 4 lub w 4 strzałach na normie 5), powszechnie nazywa się to ptaszyna. Jeśli użytkownik zapyta: „Ile birdie wykonał gracz X w zeszłym roku?”, samo posiadanie wyniku i par w tabeli nie wystarczy. W rezultacie dodaliśmy kolumny wskazujące popularne terminy golfowe, takie jak bogey, birdie i eagle. Dodatkowo połączyliśmy dane Konkursowe z oddzielnym zbiorem wideo, dołączając kolumnę dla video_id, co umożliwiłoby naszej aplikacji pobranie filmu powiązanego z konkretnym ujęciem z danych Konkursu. Umożliwiliśmy także łączenie danych tekstowych z danymi tabelarycznymi, np. dodając biografie każdego zawodnika w formie kolumny tekstowej. Na poniższych rysunkach przedstawiono krok po kroku procedurę przetwarzania zapytania w potoku zamiany tekstu na SQL. Liczby wskazują serię kroków, w których należy odpowiedzieć na zapytanie.

Podróż generatywnego wirtualnego asystenta AI PGA TOUR, od koncepcji, przez rozwój, aż po prototyp | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Na poniższym rysunku przedstawiono nasz kompleksowy potok. Używamy AWS Lambda jako nasza funkcja orkiestracyjna odpowiedzialna za interakcję z różnymi źródłami danych, LLM i korekcję błędów na podstawie zapytania użytkownika. Kroki 1-8 są podobne do pokazanych na poniższym rysunku. Istnieją niewielkie zmiany w przypadku danych nieustrukturyzowanych, które omówimy dalej.

Podróż generatywnego wirtualnego asystenta AI PGA TOUR, od koncepcji, przez rozwój, aż po prototyp | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Dane tekstowe wymagają unikalnych etapów przetwarzania, które dzielą (lub segmentują) długie dokumenty na części zrozumiałe dla LLM, przy jednoczesnym zachowaniu spójności tematycznej. Eksperymentowaliśmy z kilkoma podejściami i zdecydowaliśmy się na schemat podziału na poziomie strony, który dobrze pasował do formatu przewodników multimedialnych. Wykorzystaliśmy Amazon Kendra, czyli usługę zarządzaną, która zajmuje się indeksowaniem dokumentów, bez konieczności określania osadzania, zapewniając jednocześnie łatwe API do wyszukiwania. Poniższy rysunek ilustruje tę architekturę.

Podróż generatywnego wirtualnego asystenta AI PGA TOUR, od koncepcji, przez rozwój, aż po prototyp | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Opracowany przez nas ujednolicony, skalowalny potok umożliwia skalowanie PGA TOUR do pełnej historii danych, z których część sięga XIX wieku. Umożliwia przyszłym aplikacjom, które będą mogły na żywo korzystać z kontekstu kursu, tworzenie bogatych doświadczeń w czasie rzeczywistym.

Rozwój: ocena LLM i opracowywanie generatywnych aplikacji AI

Dokładnie przetestowaliśmy i oceniliśmy własne i zewnętrzne LLM dostępne w Amazon Bedrock, aby wybrać model, który najlepiej pasuje do naszego rurociągu i przypadku użycia. Wybraliśmy Claude v2 i Claude Instant firmy Anthropic na Amazon Bedrock. W przypadku naszego ostatecznego potoku danych ustrukturyzowanych i nieustrukturyzowanych obserwujemy, że Claude 2 firmy Anthropic na platformie Amazon Bedrock wygenerował lepsze ogólne wyniki dla naszego ostatecznego potoku danych.

Podpowiadanie jest krytycznym aspektem zmuszania LLM do wyświetlania tekstu zgodnie z oczekiwaniami. Spędziliśmy dużo czasu eksperymentując z różnymi podpowiedziami dla każdego zadania. Na przykład w przypadku potoku zamiany tekstu na SQL mieliśmy kilka podpowiedzi zastępczych o coraz większej szczegółowości i stopniowo upraszczanych schematach tabel. Jeśli zapytanie SQL było nieprawidłowe i spowodowało błąd w usłudze Athena, opracowaliśmy monit o korektę błędu, który przekazywałby błąd i niepoprawny kod SQL do LLM i prosił o jego naprawienie. Ostatni monit w potoku zamiany tekstu na SQL prosi LLM o pobranie danych wyjściowych Atheny, które mogą być dostarczone w formacie Markdown lub CSV, i dostarczenie odpowiedzi użytkownikowi. W przypadku tekstu nieustrukturyzowanego opracowaliśmy ogólne podpowiedzi umożliwiające wykorzystanie kontekstu pobranego z Amazon Kendra w celu udzielenia odpowiedzi na pytanie użytkownika. Podpowiedź zawierała instrukcje, aby korzystać wyłącznie z informacji uzyskanych od Amazon Kendra i nie polegać na danych pochodzących ze szkolenia wstępnego LLM.

Opóźnienie jest często problemem w przypadku generatywnych aplikacji AI i ma to miejsce również w tym przypadku. Jest to szczególnie istotne w przypadku zamiany tekstu na SQL, która wymaga początkowego wywołania LLM generującego SQL, po którym następuje wywołanie LLM generujące odpowiedź. Jeśli używamy dużego LLM, takiego jak Claude V2 firmy Anthropic, skutecznie podwaja to opóźnienie tylko jednego wywołania LLM. Eksperymentowaliśmy z kilkoma konfiguracjami dużych i mniejszych LLM, aby ocenić czas działania i poprawność. Poniższa tabela przedstawia przykład jednego pytania pokazanego poniżej, który pokazuje opóźnienie, a także wygenerowane odpowiedzi za pomocą Claude V2 i Claude Instant firmy Anthropic na Amazon Bedrock.

Podróż generatywnego wirtualnego asystenta AI PGA TOUR, od koncepcji, przez rozwój, aż po prototyp | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Prototyp

W naszej aplikacji wykorzystaliśmy funkcję Lambda do koordynowania szybkich wyborów i komunikacji pomiędzy Amazon Athena, Amazon Kendra i Amazon Bedrock. Wirtualny asystent posiada interfejs konwersacyjny zbudowany przy użyciu React i Cloudscape Design System, który wykorzystuje tekst i filmy do interakcji z użytkownikami.

Nasz wirtualny asystent może zadać szeroki zakres pytań dotyczących wydarzeń PGA TOUR, graczy, statystyk, historii i nie tylko. Na przykład zapytany o najdłuższe przejazdy Tony'ego Finau podczas Shriners Children's Open (jednego z najważniejszych wydarzeń w ramach PGA TOUR) asystent może zapytać o ustrukturyzowane dane, aby uzyskać dane dotyczące poziomu oddanego strzału. Potrafi wyodrębnić dokładną odległość w jardach, okrągłą liczbę i otwór, podczas którego uzyskał ten rekord, korzystając z potoku zamiany tekstu na SQL. Następnie asystent interpretuje te dane liczbowe, aby wygenerować ostateczną odpowiedź. Poniższa tabela zawiera kilka przykładowych odpowiedzi.

Question Odpowiedź
Jaki był najdłuższy przejazd Tony’ego Finau podczas Shriners Children’s Open? Najdłuższy przejazd Tony’ego Finau w Shriners Childrens Open wyniósł 382 jardy i został wykonany podczas pierwszej rundy na dołku numer 4 w 2018 roku.
Jaki był najdłuższy przejazd Collina Morikawy w Shriners Children's Open? Najdłuższy przejazd Collina Morikawy podczas Shriners Childrens Open wyniósł 334 jardy. Miało to miejsce w 2019 roku podczas pierwszej rundy na dołku numer 15.
Czy ktoś strzelił asa na Shriners Children's Open 2022? Tak, Adam Hadwin trafił do dołka nr 14 podczas 3. rundy turnieju Shriners Children's Open 2022

Poniższy film objaśniający przedstawia kilka przykładów interakcji z wirtualnym asystentem.

Podczas wstępnych testów nasz wirtualny asystent PGA TOUR okazał się bardzo obiecujący w zakresie poprawy doświadczeń fanów. Łącząc technologie sztucznej inteligencji, takie jak zamiana tekstu na SQL, wyszukiwanie semantyczne i generowanie języka naturalnego, asystent zapewnia pouczające i angażujące odpowiedzi. Fani mają łatwy dostęp do danych i narracji, które wcześniej były trudne do znalezienia.

Co przyniesie przyszłość?

W miarę dalszego rozwoju będziemy poszerzać zakres pytań, z którymi może sobie poradzić nasz wirtualny asystent. Będzie to wymagało szeroko zakrojonych testów w ramach współpracy pomiędzy AWS i PGA TOUR. Z biegiem czasu zamierzamy przekształcić asystenta w spersonalizowane, wielokanałowe doświadczenie dostępne w interfejsach internetowych, mobilnych i głosowych.

Utworzenie opartego na chmurze generatywnego asystenta AI umożliwia PGA TOUR prezentowanie ogromnego źródła danych wielu interesariuszom wewnętrznym i zewnętrznym. W miarę ewolucji krajobrazu generatywnej sztucznej inteligencji w sporcie umożliwia tworzenie nowych treści. Możesz na przykład użyć sztucznej inteligencji i uczenia maszynowego (ML), aby ujawnić treści, które fani chcą zobaczyć podczas oglądania wydarzenia lub gdy zespoły produkcyjne szukają ujęć z poprzednich turniejów pasujących do bieżącego wydarzenia. Na przykład, jeśli Max Homa przygotowuje się do oddania swojego ostatniego strzału w mistrzostwach PGA TOUR z miejsca znajdującego się 20 stóp od kręgla, PGA TOUR może wykorzystać sztuczną inteligencję i uczenie maszynowe do zidentyfikowania i zaprezentowania jego klipów z komentarzem wygenerowanym przez sztuczną inteligencję próbował już pięć razy oddać podobny strzał. Ten rodzaj dostępu i danych umożliwia zespołowi produkcyjnemu natychmiastowe dodanie wartości do transmisji lub umożliwienie fanom dostosowania rodzaju danych, które chcą zobaczyć.

„PGA TOUR jest liderem w branży w zakresie wykorzystania najnowocześniejszych technologii w celu poprawy wrażeń fanów. Sztuczna inteligencja znajduje się na czele naszego stosu technologii, gdzie pozwala nam tworzyć bardziej wciągające i interaktywne środowisko dla fanów. To początek naszej podróży w zakresie generatywnej sztucznej inteligencji we współpracy z Centrum innowacji AWS Generative AI w celu zapewnienia transformacyjnej, kompleksowej obsługi klienta. Pracujemy nad wykorzystaniem Amazon Bedrock i naszych zastrzeżonych danych, aby stworzyć interaktywne doświadczenie dla fanów PGA TOUR, w którym będą mogli w interaktywny sposób znaleźć interesujące informacje na temat wydarzenia, gracza, statystyk lub innych treści.
– Scott Gutterman, wiceprezes ds. transmisji i własności cyfrowych w PGA TOUR.

Wnioski

Projekt, który omówiliśmy w tym poście, jest przykładem tego, jak ustrukturyzowane i nieustrukturyzowane źródła danych można połączyć za pomocą sztucznej inteligencji, aby stworzyć wirtualnych asystentów nowej generacji. W przypadku organizacji sportowych technologia ta umożliwia bardziej wciągające zaangażowanie fanów i odblokowuje wewnętrzną wydajność. Wykrywane przez nas dane pomagają interesariuszom PGA TOUR, takim jak gracze, trenerzy, działacze, partnerzy i media, szybciej podejmować świadome decyzje. Poza sportem naszą metodologię można zastosować w dowolnej branży. Te same zasady mają zastosowanie do asystentów budynków, którzy angażują klientów, pracowników, studentów, pacjentów i innych użytkowników końcowych. Dzięki przemyślanemu projektowi i testom praktycznie każda organizacja może odnieść korzyści z systemu sztucznej inteligencji, który kontekstualizuje jej ustrukturyzowane bazy danych, dokumenty, obrazy, filmy i inną zawartość.

Jeśli jesteś zainteresowany wdrożeniem podobnych funkcjonalności, rozważ skorzystanie z Agenci Amazon Bedrock i Bazy wiedzy na temat Amazon Bedrock jako alternatywne rozwiązanie w pełni zarządzane przez AWS. Podejście to może prowadzić do dalszych badań nad zapewnieniem inteligentnej automatyzacji i możliwości wyszukiwania danych za pośrednictwem dostosowywalnych agentów. Agenci ci mogą potencjalnie przekształcić interakcje użytkownika z aplikacją tak, aby były bardziej naturalne, wydajne i skuteczne.


O autorach

Podróż generatywnego wirtualnego asystenta AI PGA TOUR, od koncepcji, przez rozwój, aż po prototyp | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.Scotta Guttermana jest wiceprezesem ds. operacji cyfrowych w PGA TOUR. Jest odpowiedzialny za ogólne operacje cyfrowe TOUR, rozwój produktów i kieruje strategią GenAI.

Podróż generatywnego wirtualnego asystenta AI PGA TOUR, od koncepcji, przez rozwój, aż po prototyp | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.Ahsan Ali jest naukowcem stosowanym w Centrum Innowacji Amazon Generative AI, gdzie współpracuje z klientami z różnych dziedzin, aby rozwiązywać ich pilne i kosztowne problemy za pomocą Generative AI.

Podróż generatywnego wirtualnego asystenta AI PGA TOUR, od koncepcji, przez rozwój, aż po prototyp | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.Tahina Syeda jest naukowcem stosowanym w Centrum Innowacji Amazon Generative AI, gdzie współpracuje z klientami, pomagając im osiągać wyniki biznesowe dzięki generatywnym rozwiązaniom AI. Poza pracą lubi próbować nowego jedzenia, podróżować i uczyć taekwondo.

Podróż generatywnego wirtualnego asystenta AI PGA TOUR, od koncepcji, przez rozwój, aż po prototyp | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.Grace Lang jest inżynierem ds. danych i uczenia maszynowego w AWS Professional Services. Kierowana pasją pokonywania trudnych wyzwań, Grace pomaga klientom osiągać ich cele, opracowując rozwiązania oparte na uczeniu maszynowym.

Podróż generatywnego wirtualnego asystenta AI PGA TOUR, od koncepcji, przez rozwój, aż po prototyp | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.Jae Lee jest starszym menedżerem ds. zaangażowania w pionie M&E firmy ProServe. Prowadzi i realizuje złożone projekty, wykazuje duże umiejętności rozwiązywania problemów, zarządza oczekiwaniami interesariuszy i jest kuratorem prezentacji na szczeblu kierowniczym. Lubi pracować nad projektami skupiającymi się na sporcie, generatywnej sztucznej inteligencji i doświadczeniu klienta.

Podróż generatywnego wirtualnego asystenta AI PGA TOUR, od koncepcji, przez rozwój, aż po prototyp | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.Karna Chahara jest konsultantem ds. bezpieczeństwa w zespole wspólnego dostarczania w AWS. Jest entuzjastą technologii, który lubi pracować z klientami, aby rozwiązywać ich problemy związane z bezpieczeństwem i poprawiać ich poziom bezpieczeństwa w chmurze.

Podróż generatywnego wirtualnego asystenta AI PGA TOUR, od koncepcji, przez rozwój, aż po prototyp | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.Mike'a Amjadiego jest inżynierem danych i uczenia maszynowego w AWS ProServe, którego celem jest umożliwienie klientom maksymalizacji wartości z danych. Specjalizuje się w projektowaniu, budowaniu i optymalizacji potoków danych zgodnie z dobrze zaprojektowanymi zasadami. Mike pasjonuje się wykorzystaniem technologii do rozwiązywania problemów i stara się zapewniać naszym klientom najlepsze wyniki.

Podróż generatywnego wirtualnego asystenta AI PGA TOUR, od koncepcji, przez rozwój, aż po prototyp | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.Wruszali Sawant jest inżynierem front-end w Proserve. Posiada duże umiejętności w zakresie tworzenia responsywnych stron internetowych. Uwielbia pracować z klientami, rozumieć ich wymagania i dostarczać skalowalne, łatwe do wdrożenia rozwiązania UI/UX.

Podróż generatywnego wirtualnego asystenta AI PGA TOUR, od koncepcji, przez rozwój, aż po prototyp | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.Neelama Patela jest menedżerem ds. rozwiązań dla klientów w AWS, prowadzącym kluczowe inicjatywy związane z generatywną sztuczną inteligencją i modernizacją chmury. Neelam współpracuje z kluczowymi menedżerami i właścicielami technologii, aby sprostać wyzwaniom związanym z transformacją chmury i pomaga klientom maksymalizować korzyści z wdrożenia chmury. Uzyskała tytuł MBA w Warwick Business School w Wielkiej Brytanii oraz tytuł licencjata w dziedzinie inżynierii komputerowej w Indiach.

Podróż generatywnego wirtualnego asystenta AI PGA TOUR, od koncepcji, przez rozwój, aż po prototyp | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.Doktor Murali Baktha jest globalnym architektem rozwiązań golfowych w AWS i stoi na czele kluczowych inicjatyw obejmujących generatywną sztuczną inteligencję, analizę danych i najnowocześniejsze technologie chmurowe. Murali współpracuje z kluczowymi menedżerami i właścicielami technologii, aby zrozumieć wyzwania biznesowe klientów i projektować rozwiązania, aby sprostać tym wyzwaniom. Posiada tytuł MBA w dziedzinie finansów uzyskany na Uniwersytecie UConn oraz doktorat na Uniwersytecie Stanowym Iowa.

Podróż generatywnego wirtualnego asystenta AI PGA TOUR, od koncepcji, przez rozwój, aż po prototyp | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.Mahdiego Noora jest menedżerem ds. nauk stosowanych w Centrum Innowacji Generative Ai. Dzięki pasji do łączenia technologii i innowacji pomaga klientom AWS w uwalnianiu potencjału generatywnej sztucznej inteligencji, przekształcając potencjalne wyzwania w możliwości szybkiego eksperymentowania i innowacji, koncentrując się na skalowalnych, mierzalnych i wpływowych zastosowaniach zaawansowanych technologii sztucznej inteligencji oraz usprawniając ścieżkę do produkcji.

Znak czasu:

Więcej z Uczenie maszynowe AWS