Uprość dostęp do informacji wewnętrznych za pomocą generowania rozszerzonego wyszukiwania i agentów LangChain | Usługi internetowe Amazona

Uprość dostęp do informacji wewnętrznych za pomocą generowania rozszerzonego wyszukiwania i agentów LangChain | Usługi internetowe Amazona

W tym poście omówiono najczęstsze wyzwania, przed którymi stają klienci podczas przeszukiwania dokumentów wewnętrznych, i podano konkretne wskazówki, w jaki sposób można wykorzystać usługi AWS do stworzenia generatywnego bota konwersacyjnego opartego na sztucznej inteligencji, który zwiększa użyteczność informacji wewnętrznych.

Dane nieustrukturyzowane stanowią 80% wszystkich danych znalezione w organizacjach, składające się z repozytoriów podręczników, plików PDF, często zadawanych pytań, e-maili i innych dokumentów, których liczba rośnie codziennie. Współczesne przedsiębiorstwa polegają na stale rosnących repozytoriach informacji wewnętrznych, a problemy pojawiają się, gdy ilość nieustrukturyzowanych danych staje się niemożliwa do zarządzania. Często użytkownicy czytają i sprawdzają wiele różnych źródeł wewnętrznych, aby znaleźć odpowiedzi, których potrzebują.

Wewnętrzne fora pytań i odpowiedzi mogą pomóc użytkownikom uzyskać bardzo szczegółowe odpowiedzi, ale wymagają również dłuższego czasu oczekiwania. W przypadku wewnętrznych często zadawanych pytań dotyczących danej firmy, długi czas oczekiwania skutkuje niższą produktywnością pracowników. Fora pytań i odpowiedzi są trudne do skalowania, ponieważ opierają się na ręcznie pisanych odpowiedziach. Dzięki generatywnej sztucznej inteligencji następuje obecnie zmiana paradygmatu w sposobie, w jaki użytkownicy wyszukują i znajdują informacje. Następnym logicznym krokiem jest wykorzystanie generatywnej sztucznej inteligencji do skondensowania dużych dokumentów w mniejsze informacje, aby ułatwić użytkownikom korzystanie z nich. Zamiast spędzać dużo czasu na czytaniu tekstu lub czekaniu na odpowiedzi, użytkownicy mogą generować podsumowania w czasie rzeczywistym w oparciu o wiele istniejących repozytoriów informacji wewnętrznych.

Omówienie rozwiązania

Rozwiązanie umożliwia klientom pobieranie wyselekcjonowanych odpowiedzi na pytania zadawane na temat dokumentów wewnętrznych poprzez wykorzystanie modelu transformatora do generowania odpowiedzi na pytania dotyczące danych, w zakresie których nie zostało przeszkolone, co jest techniką znaną jako podpowiedzi zerowe. Stosując to rozwiązanie klienci mogą zyskać następujące korzyści:

  • Znajdź dokładne odpowiedzi na pytania w oparciu o istniejące źródła dokumentów wewnętrznych
  • Skróć czas, jaki użytkownicy spędzają na poszukiwaniu odpowiedzi, korzystając z modeli wielkojęzykowych (LLM), aby zapewnić niemal natychmiastowe odpowiedzi na złożone zapytania, korzystając z dokumentów zawierających najbardziej aktualne informacje
  • Przeszukuj pytania, na które udzielono wcześniej odpowiedzi, za pośrednictwem scentralizowanego pulpitu nawigacyjnego
  • Zmniejsz stres spowodowany spędzaniem czasu na ręcznym czytaniu informacji w poszukiwaniu odpowiedzi

Generowanie rozszerzone odzyskiwania (RAG)

Generowanie rozszerzone wyszukiwania (RAG) zmniejsza niektóre niedociągnięcia zapytań opartych na LLM, znajdując odpowiedzi w bazie wiedzy i wykorzystując LLM do podsumowania dokumentów w zwięzłe odpowiedzi. Proszę przeczytaj to pisać aby dowiedzieć się, jak wdrożyć podejście RAG Amazonka Kendra. Z zapytaniami opartymi na LLM, które uwzględnia podejście RAG z Amazon Kendra, związane są następujące zagrożenia i ograniczenia:

  • Halucynacje i identyfikowalność – LLMS są szkolone na dużych zbiorach danych i generują odpowiedzi na temat prawdopodobieństwa. Może to prowadzić do niedokładnych odpowiedzi, zwanych halucynacjami.
  • Wiele silosów danych — aby w odpowiedzi odwoływać się do danych z wielu źródeł, należy skonfigurować ekosystem łączników w celu agregacji danych. Dostęp do wielu repozytoriów jest ręczny i czasochłonny.
  • Bezpieczeństwo — bezpieczeństwo i prywatność to kluczowe kwestie przy wdrażaniu botów konwersacyjnych obsługiwanych przez RAG i LLM. Pomimo używania Amazon Comprehend w celu odfiltrowania danych osobowych, które mogą zostać przekazane w wyniku zapytań użytkowników, istnieje możliwość niezamierzonego ujawnienia informacji osobistych lub wrażliwych, w zależności od pochłoniętych danych. Oznacza to, że kontrolowanie dostępu do chatbota jest kluczowe, aby zapobiec niezamierzonemu dostępowi do wrażliwych informacji.
  • Znaczenie danych – LLMS są szkolone na danych do określonej daty, co oznacza, że ​​informacje często są nieaktualne. Koszt związany z modelami szkoleniowymi na najnowszych danych jest wysoki. Aby zapewnić dokładne i aktualne odpowiedzi, organizacje ponoszą odpowiedzialność za regularne aktualizowanie i wzbogacanie treści indeksowanych dokumentów.
  • Koszt — koszty związane z wdrożeniem tego rozwiązania powinny być brane pod uwagę przez firmy. Wdrażając to rozwiązanie, firmy muszą dokładnie ocenić swoje wymagania budżetowe i wydajnościowe. Prowadzenie LLM może wymagać znacznych zasobów obliczeniowych, co może zwiększać koszty operacyjne. Koszty te mogą stać się ograniczeniem w przypadku aplikacji, które muszą działać na dużą skalę. Jednak jedną z zalet AWS Cloud to elastyczność, dzięki której możesz płacić tylko za to, z czego korzystasz. AWS oferuje prosty, spójny model cenowy typu pay-as-you-go, dzięki czemu płacisz tylko za zużyte zasoby.

Korzystanie z Amazon SageMaker JumpStart

W przypadku modeli językowych opartych na transformatorach organizacje mogą odnieść korzyści z używania Amazon Sage Maker JumpStart, który oferuje kolekcję gotowych modeli uczenia maszynowego. Amazon SageMaker JumpStart oferuje szeroką gamę podstawowych modeli generowania tekstu i odpowiadania na pytania (Q&A), które można łatwo wdrożyć i wykorzystać. To rozwiązanie integruje model FLAN T5-XL Amazon SageMaker JumpStart, ale istnieją inne aspekty, o których należy pamiętać podczas wybór modelu fundamentu.

Integracja bezpieczeństwa z naszym przepływem pracy

Kierując się najlepszymi praktykami Filaru Bezpieczeństwa Dobrze zaprojektowane ramy, Amazon Cognito służy do uwierzytelniania. Pule użytkowników Amazon Cognito można zintegrować z zewnętrznymi dostawcami tożsamości, którzy obsługują kilka platform używanych do kontroli dostępu, w tym Open Authorization (OAuth), OpenID Connect (OIDC) lub Security Assertion Markup Language (SAML). Identyfikacja użytkowników i ich działań pozwala na zachowanie identyfikowalności rozwiązania. Rozwiązanie wykorzystuje również Wykrywanie danych osobowych (PII) firmy Amazon Comrehend funkcja automatycznej identyfikacji i redagowania informacji umożliwiających identyfikację. Zredagowane informacje umożliwiające identyfikację obejmują adresy, numery ubezpieczenia społecznego, adresy e-mail i inne poufne informacje. Dzięki takiemu rozwiązaniu wszelkie informacje umożliwiające identyfikację użytkownika podane przez użytkownika w zapytaniu wejściowym zostaną zredagowane. Dane osobowe nie są przechowywane, wykorzystywane przez Amazon Kendra ani przekazywane do LLM.

Przewodnik po rozwiązaniu

Poniższe kroki opisują przebieg odpowiedzi na pytanie w obiegu dokumentów:

  1. Użytkownicy wysyłają zapytanie za pośrednictwem interfejsu internetowego.
  2. Amazon Cognito służy do uwierzytelniania, zapewniając bezpieczny dostęp do aplikacji internetowej.
  3. Frontend aplikacji internetowej jest hostowany na platformie Wzmocnienie AWS.
  4. Brama Amazon API hostuje interfejs API REST z różnymi punktami końcowymi do obsługi żądań użytkowników uwierzytelnianych za pomocą Amazon Cognito.
  5. Redakcja PII z Amazon Comprehend:
    • Przetwarzanie zapytań użytkownika: Gdy użytkownik przesyła zapytanie lub dane wejściowe, jest ono najpierw przekazywane przez Amazon Comprehend. Usługa analizuje tekst i identyfikuje wszelkie podmioty umożliwiające identyfikację osób występujące w zapytaniu.
    • Ekstrakcja PII: Amazon Comprehend wyodrębnia wykryte jednostki PII z zapytania użytkownika.
  6. Wyszukiwanie istotnych informacji za pomocą Amazonka Kendra:
    • Amazon Kendra służy do zarządzania indeksem dokumentów, który zawiera informacje wykorzystywane do generowania odpowiedzi na zapytania użytkownika.
    • Połączenia Pobieranie kontroli jakości LangChain Moduł służy do budowy łańcucha konwersacji, który zawiera istotne informacje na temat zapytań użytkownika.
  7. Integracja z Amazon SageMaker JumpStart:
    • Funkcja AWS Lambda korzysta z biblioteki LangChain i łączy się z punktem końcowym Amazon SageMaker JumpStart za pomocą zapytania wypełnionego kontekstem. Punkt końcowy Amazon SageMaker JumpStart służy jako interfejs LLM używany do wnioskowania.
  8. Przechowywanie odpowiedzi i zwracanie ich użytkownikowi:
    • Odpowiedź z LLM jest przechowywana w Amazon DynamoDB wraz z zapytaniem użytkownika, znacznikiem czasu, unikalnym identyfikatorem i innymi dowolnymi identyfikatorami elementu, takimi jak kategoria pytania. Przechowywanie pytania i odpowiedzi jako odrębnych elementów umożliwia funkcji AWS Lambda łatwe odtworzenie historii rozmów użytkownika na podstawie czasu zadawania pytań.
    • Na koniec odpowiedź jest odsyłana do użytkownika za pośrednictwem żądania HTTPs za pośrednictwem odpowiedzi integracji interfejsu API REST Amazon API Gateway.

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Poniższe kroki opisują funkcje AWS Lambda i ich przepływ przez proces:

  1. Sprawdź i zredaguj wszelkie informacje umożliwiające identyfikację użytkownika lub informacje wrażliwe
  2. Łańcuch pobierania kontroli jakości LangChain
    • Wyszukuj i pobieraj odpowiednie informacje
  3. Upychanie kontekstu i szybka inżynieria
  4. Wnioskowanie z LLM
  5. Zwróć odpowiedź i zapisz ją

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Przypadków użycia

Istnieje wiele przypadków zastosowań biznesowych, w których klienci mogą korzystać z tego przepływu pracy. W poniższej sekcji wyjaśniono, w jaki sposób przepływ pracy można wykorzystać w różnych branżach i branżach.

Pomoc dla pracowników

Dobrze zaprojektowane szkolenie korporacyjne może poprawić satysfakcję pracowników i skrócić czas potrzebny na wdrożenie nowych pracowników. W miarę rozwoju organizacji i wzrostu złożoności pracownikom trudno jest zrozumieć wiele źródeł dokumentów wewnętrznych. Dokumenty wewnętrzne w tym kontekście obejmują wytyczne firmy, zasady i standardowe procedury operacyjne. W tym scenariuszu pracownik ma pytanie, jak postępować i edytować bilet biletowy wydania wewnętrznego. Pracownik może uzyskać dostęp do bota konwersacyjnego opartego na sztucznej inteligencji (AI) i korzystać z niego, aby zadać pytanie i wykonać kolejne kroki w przypadku konkretnego zgłoszenia.

Konkretny przypadek użycia: Automatyzuj rozwiązywanie problemów dla pracowników w oparciu o wytyczne korporacyjne.

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Poniższe kroki opisują funkcje AWS Lambda i ich przepływ przez proces:

  1. Agent LangChain do identyfikacji intencji
  2. Wyślij powiadomienie na podstawie prośby pracownika
  3. Zmień status biletu

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Na tym diagramie architektury można wykorzystać korporacyjne filmy szkoleniowe Amazon Transcribe aby zebrać dziennik tych skryptów wideo. Dodatkowo korporacyjne treści szkoleniowe przechowywane w różnych źródłach (tj. Confluence, Microsoft SharePoint, Google Drive, Jira itp.) można wykorzystać do tworzenia indeksów za pośrednictwem złączy Amazon Kendra. Przeczytaj ten artykuł, aby dowiedzieć się więcej na temat kolekcji natywnych złącza możesz wykorzystać w Amazon Kendra jako punkt źródłowy. Robot Amazon Kendra może następnie wykorzystywać zarówno korporacyjne skrypty wideo szkoleniowe, jak i dokumentację przechowywaną w tych innych źródłach, aby pomóc botowi konwersacyjnemu w odpowiadaniu na pytania specyficzne dla firmowych wytycznych dotyczących szkoleń korporacyjnych. Agent LangChain weryfikuje uprawnienia, modyfikuje status zgłoszenia i powiadamia odpowiednie osoby za pomocą usługi Amazon Simple Notification Service (Amazon SNS).

Zespoły obsługi klienta

Szybkie rozwiązywanie zapytań klientów poprawia jakość obsługi klientów i zachęca do lojalności wobec marki. Lojalna baza klientów pomaga zwiększać sprzedaż, co przekłada się na wyniki finansowe i zwiększa zaangażowanie klientów. Zespoły obsługi klienta poświęcają dużo energii, odwołując się do wielu dokumentów wewnętrznych i oprogramowania do zarządzania relacjami z klientami, aby odpowiedzieć na zapytania klientów dotyczące produktów i usług. Dokumenty wewnętrzne w tym kontekście mogą obejmować ogólne skrypty rozmów telefonicznych z obsługą klienta, podręczniki, wytyczne dotyczące eskalacji i informacje biznesowe. Generatywny bot konwersacyjny AI pomaga w optymalizacji kosztów, ponieważ obsługuje zapytania w imieniu zespołu obsługi klienta.

Konkretny przypadek użycia: Obsługa wniosków o wymianę oleju w oparciu o historię serwisową i zakupiony plan obsługi klienta.

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Na tym diagramie architektury klient jest kierowany albo do generatywnego bota konwersacyjnego AI, albo do Amazon Połącz Centrum Kontaktu. Decyzja ta może opierać się na poziomie potrzebnego wsparcia lub dostępności agentów obsługi klienta. Agent LangChain rozpoznaje intencje klienta i weryfikuje jego tożsamość. Agent LangChain sprawdza także historię serwisową i wykupiony plan wsparcia.

Poniższe kroki opisują funkcje AWS Lambda i ich przepływ przez proces:

  1. Agent LangChain identyfikuje intencję
  2. Odzyskaj informacje o kliencie
  3. Sprawdź historię obsługi klienta i informacje o gwarancji
  4. Zarezerwuj wizytę, podaj więcej informacji lub wyznacz trasę do centrum kontaktowego
  5. Wyślij e-mail z potwierdzeniem

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Amazon Connect służy do gromadzenia dzienników rozmów i rozmów, a Amazon Comprehend służy do usuwania danych osobowych z tych dzienników. Robot indeksujący Amazon Kendra może następnie wykorzystać zredagowane dzienniki rozmów i czatów, skrypty rozmów z klientami oraz zasady planu wsparcia klienta w celu utworzenia indeksu. Po podjęciu decyzji generatywny bot konwersacyjny AI decyduje, czy zarezerwować spotkanie, podać więcej informacji, czy też skierować klienta do centrum kontaktowego w celu uzyskania dalszej pomocy. W celu optymalizacji kosztów agent LangChain może również generować odpowiedzi przy użyciu mniejszej liczby tokenów i tańszego modelu dużego języka w przypadku zapytań klientów o niższym priorytecie.

Usługi finansowe

Firmy świadczące usługi finansowe polegają na terminowym wykorzystywaniu informacji, aby zachować konkurencyjność i przestrzegać przepisów finansowych. Korzystając z generatywnego bota konwersacyjnego opartego na sztucznej inteligencji, analitycy finansowi i doradcy mogą wchodzić w interakcję z informacjami tekstowymi w sposób konwersacyjny, redukując czas i wysiłek potrzebny do podejmowania bardziej świadomych decyzji. Poza inwestycjami i badaniami rynku generatywny bot konwersacyjny oparty na sztucznej inteligencji może również zwiększać ludzkie możliwości, wykonując zadania, które tradycyjnie wymagałyby więcej ludzkiego wysiłku i czasu. Na przykład instytucja finansowa specjalizująca się w pożyczkach osobistych może zwiększyć tempo przetwarzania pożyczek, zapewniając jednocześnie klientom większą przejrzystość.

Konkretny przypadek użycia: Skorzystaj z historii finansowej klienta i poprzednich wniosków o pożyczkę, aby podjąć decyzję i wyjaśnić decyzję o pożyczce.

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Poniższe kroki opisują funkcje AWS Lambda i ich przepływ przez proces:

  1. Agent LangChain do identyfikacji intencji
  2. Sprawdź historię finansową i zdolność kredytową klienta
  3. Sprawdź wewnętrzny system zarządzania relacjami z klientami
  4. Sprawdź standardowe zasady pożyczki i zasugeruj decyzję pracownikowi kwalifikującą pożyczkę
  5. Wyślij powiadomienie do klienta

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Architektura ta obejmuje dane finansowe klientów przechowywane w bazie danych oraz dane przechowywane w narzędziu do zarządzania relacjami z klientami (CRM). Te punkty danych służą do podjęcia decyzji w oparciu o wewnętrzną politykę kredytową firmy. Klient może zadawać pytania wyjaśniające, aby zrozumieć, do jakich kredytów się kwalifikuje i na jakich warunkach może je zaakceptować. Jeśli generatywny bot konwersacyjny AI nie będzie w stanie zatwierdzić wniosku o pożyczkę, użytkownik może nadal zadawać pytania dotyczące poprawy zdolności kredytowej lub alternatywnych opcji finansowania.

Rząd

Generacyjne boty konwersacyjne AI mogą przynieść ogromne korzyści instytucjom rządowym, przyspieszając komunikację, wydajność i procesy decyzyjne. Generacyjne boty konwersacyjne oparte na sztucznej inteligencji mogą również zapewniać natychmiastowy dostęp do wewnętrznych baz wiedzy, aby pomóc pracownikom instytucji rządowych w szybkim wyszukiwaniu informacji, zasad i procedur (tj. kryteriów kwalifikowalności, procesów składania wniosków oraz usług i wsparcia obywateli). Jednym z rozwiązań jest interaktywny system, dzięki któremu podatnicy i doradcy podatkowi mogą łatwo znaleźć szczegóły i świadczenia podatkowe. Można go używać do zrozumienia pytań użytkowników, podsumowania dokumentów podatkowych i zapewnienia jasnych odpowiedzi w drodze interaktywnych rozmów.

Użytkownicy mogą zadawać pytania takie jak:

  • Jak działa podatek od spadków i jakie są progi podatkowe?
  • Czy możesz wyjaśnić pojęcie podatku dochodowego?
  • Jakie skutki podatkowe wiąże się ze sprzedażą drugiej nieruchomości?

Dodatkowo użytkownicy mogą mieć wygodę przesyłania formularzy podatkowych do systemu, co pozwala zweryfikować poprawność podanych informacji.

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Architektura ta ilustruje, w jaki sposób użytkownicy mogą przesyłać wypełnione formularze podatkowe do rozwiązania i wykorzystywać je do interaktywnej weryfikacji oraz wskazówek, jak dokładnie wypełnić niezbędne informacje.

Zdrowie

Firmy z branży opieki zdrowotnej mają możliwość zautomatyzowania wykorzystania dużych ilości wewnętrznych informacji o pacjentach, jednocześnie odpowiadając na typowe pytania dotyczące przypadków użycia, takich jak opcje leczenia, roszczenia ubezpieczeniowe, badania kliniczne i badania farmaceutyczne. Wykorzystanie generatywnego bota konwersacyjnego AI umożliwia szybkie i dokładne generowanie odpowiedzi na temat informacji zdrowotnych z udostępnionej bazy wiedzy. Na przykład niektórzy pracownicy służby zdrowia spędzają dużo czasu na wypełnianiu formularzy w celu zgłoszenia roszczeń ubezpieczeniowych.

W podobnych warunkach administratorzy badań klinicznych i badacze muszą znaleźć informacje na temat możliwości leczenia. Generacyjny bot konwersacyjny AI może korzystać z gotowych łączników w Amazon Kendra, aby pobierać najbardziej istotne informacje z milionów dokumentów opublikowanych w wyniku ciągłych badań prowadzonych przez firmy farmaceutyczne i uniwersytety.

Konkretny przypadek użycia: Zmniejsz liczbę błędów i czas potrzebny na wypełnienie i przesłanie formularzy ubezpieczeniowych.

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Na tym diagramie architektury pracownik służby zdrowia może skorzystać z generatywnego bota konwersacyjnego AI, aby dowiedzieć się, jakie formularze należy wypełnić w ramach ubezpieczenia. Agent LangChain jest wówczas w stanie wyszukać odpowiednie formularze i dodać potrzebne informacje pacjentowi, a także udzielić odpowiedzi na części opisowe formularzy w oparciu o polisy ubezpieczeniowe i poprzednie formularze. Pracownik służby zdrowia może edytować odpowiedzi udzielone przez LLM przed zatwierdzeniem formularza i dostarczeniem go do portalu ubezpieczeniowego.

Poniższe kroki opisują funkcje AWS Lambda i ich przepływ przez proces:

  1. Agent LangChain do identyfikacji intencji
  2. Uzyskaj potrzebne informacje o pacjencie
  3. Wypełnij formularz ubezpieczenia w oparciu o dane pacjenta i wytyczne dotyczące formularza
  4. Prześlij formularz do portalu ubezpieczeniowego po zatwierdzeniu przez użytkownika

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Jezioro zdrowia AWS służy do bezpiecznego przechowywania danych zdrowotnych, w tym poprzednich formularzy ubezpieczenia i informacji o pacjencie, a Amazon Comprehend służy do usuwania danych osobowych (PII) z poprzednich formularzy ubezpieczenia. Robot Amazon Kendra może następnie skorzystać z zestawu formularzy ubezpieczeniowych i wytycznych w celu utworzenia indeksu. Po wypełnieniu formularzy przez generatywną sztuczną inteligencję formularze sprawdzone przez lekarza mogą zostać przesłane do portalu ubezpieczeniowego.

Oszacowanie kosztów

Koszt wdrożenia rozwiązania podstawowego w ramach weryfikacji koncepcji przedstawiono w poniższej tabeli. Ponieważ rozwiązanie podstawowe uważa się za weryfikację koncepcji, Amazon Kendra Developer Edition została wykorzystana jako tania opcja, ponieważ obciążenie nie byłoby w środowisku produkcyjnym. Nasze założenie dla Amazon Kendra Developer Edition zakładało 730 aktywnych godzin w miesiącu.

W przypadku Amazon SageMaker założyliśmy, że klient będzie używał instancji ml.g4dn.2xlarge do wnioskowania w czasie rzeczywistym, z jednym punktem końcowym wnioskowania na instancję. Możesz znaleźć więcej informacji na temat cen Amazon SageMaker i dostępnych typów instancji wnioskowania tutaj.

Usługi Zużyte zasoby Szacunkowy koszt miesięczny w USD
Wzmocnienie AWS 150 minut budowy
1 GB obsłużonych danych
500,000 wniosków
15.71
Brama Amazon API 1 milion wywołań API REST 3.5
AWS Lambda 1 milion żądań
Czas trwania 5 sekund na każde żądanie
Przydzielone 2 GB pamięci
160.23
Amazon DynamoDB 1 milion odczytów
1 milion pisze
100 GB
26.38
Amazon Sagemaker Wnioskowanie w czasie rzeczywistym za pomocą ml.g4dn.2xlarge 676.8
Amazonka Kendra Wersja dla programistów z 730 godzinami miesięcznie
Zeskanowano 10,000 XNUMX dokumentów
5,000 zapytań dziennie
821.25
. . Całkowity koszt: 1703.87

* Amazon Cognito ma bezpłatny poziom 50,000 50 aktywnych użytkowników miesięcznie, którzy korzystają z pul użytkowników Cognito lub 2.0 aktywnych użytkowników miesięcznie, którzy korzystają z dostawców tożsamości SAML XNUMX

Sprzątać

Aby zaoszczędzić koszty, usuń wszystkie zasoby wdrożone w ramach samouczka. Możesz usunąć dowolne punkty końcowe SageMaker, które mogłeś utworzyć za pomocą konsoli SageMaker. Pamiętaj, że usunięcie indeksu Amazon Kendra nie powoduje usunięcia oryginalnych dokumentów z Twojej pamięci.

Wnioski

W tym poście pokazaliśmy, jak uprościć dostęp do informacji wewnętrznych, podsumowując dane z wielu repozytoriów w czasie rzeczywistym. Po niedawnym rozwoju dostępnych na rynku LLM możliwości generatywnej sztucznej inteligencji stały się bardziej widoczne. W tym poście przedstawiliśmy sposoby wykorzystania usług AWS do stworzenia bezserwerowego chatbota, który wykorzystuje generatywną sztuczną inteligencję do odpowiadania na pytania. Podejście to obejmuje warstwę uwierzytelniania i wykrywanie danych osobowych przez Amazon Comprehend w celu odfiltrowania wszelkich wrażliwych informacji podanych w zapytaniu użytkownika. Niezależnie od tego, czy chodzi o osoby pracujące w służbie zdrowia, które rozumieją niuanse związane ze zgłaszaniem roszczeń ubezpieczeniowych, czy też działy HR rozumiejące szczegółowe regulacje obowiązujące w całej firmie, istnieje wiele branż i branż, które mogą skorzystać na tym podejściu. Silnikiem chatbota jest podstawowy model Amazon SageMaker JumpStart, natomiast podejście polegające na upychaniu kontekstu przy użyciu techniki RAG zapewnia, że ​​odpowiedzi dokładniej odwołują się do dokumentów wewnętrznych.

Aby dowiedzieć się więcej o pracy z generatywną sztuczną inteligencją w AWS, zobacz Ogłaszamy nowe narzędzia do budowania z generatywną sztuczną inteligencją w AWS. Bardziej szczegółowe wskazówki dotyczące używania techniki RAG z usługami AWS można znaleźć w artykule Szybko twórz aplikacje generatywnej sztucznej inteligencji o wysokiej dokładności na danych korporacyjnych przy użyciu Amazon Kendra, LangChain i dużych modeli językowych. Ponieważ podejście opisane na tym blogu jest niezależne od LLM, do wnioskowania można wykorzystać dowolne LLM. W następnym poście przedstawimy sposoby wdrożenia tego rozwiązania przy użyciu Amazon Bedrock i Amazon Titan LLM.


O autorach

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Abhishek Maligehalli Shivalingaiah jest starszym architektem rozwiązań w zakresie usług AI w AWS. Pasjonuje się budowaniem aplikacji z wykorzystaniem Generative AI, Amazon Kendra i NLP. Ma około 10-letnie doświadczenie w budowaniu rozwiązań Data & AI w celu tworzenia wartości dla klientów i przedsiębiorstw. Dla zabawy zbudował nawet (osobistego) chatbota, który odpowiada na pytania dotyczące jego kariery i ścieżki zawodowej. Poza pracą lubi robić portrety rodziny i przyjaciół oraz uwielbia tworzyć dzieła sztuki.

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Medha Aiyah jest architektem rozwiązań stowarzyszonych w AWS z siedzibą w Austin w Teksasie. Niedawno ukończyła studia na Uniwersytecie Teksasu w Dallas w grudniu 2022 r., uzyskując tytuł magistra informatyki ze specjalizacją w inteligentnych systemach, ze szczególnym uwzględnieniem sztucznej inteligencji/ML. Chciałaby dowiedzieć się więcej o AI/ML i wykorzystaniu usług AWS do odkrywania rozwiązań, z których mogą skorzystać klienci.

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Hugo Tse jest architektem rozwiązań stowarzyszonych w AWS z siedzibą w Seattle w stanie Waszyngton. Posiada tytuł magistra w dziedzinie technologii informatycznych uzyskany na Uniwersytecie Stanowym w Arizonie oraz tytuł licencjata w dziedzinie ekonomii uzyskany na Uniwersytecie w Chicago. Jest członkiem Stowarzyszenia Audytu i Kontroli Systemów Informacyjnych (ISACA) oraz Międzynarodowego Konsorcjum Certyfikacji Bezpieczeństwa Systemów Informacyjnych (ISC)2. Lubi pomagać klientom czerpać korzyści z technologii.

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Aymana Ishimwe jest zastępcą architekta rozwiązań w AWS z siedzibą w Seattle w stanie Waszyngton. Uzyskał tytuł magistra inżynierii oprogramowania i informatyki na Uniwersytecie Oakland. Ma wcześniejsze doświadczenie w tworzeniu oprogramowania, szczególnie w budowaniu mikroserwisów dla rozproszonych aplikacji internetowych. Jego pasją jest pomaganie klientom w budowaniu solidnych i skalowalnych rozwiązań w usługach chmurowych AWS, zgodnie z najlepszymi praktykami.

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Shervin Suresh jest architektem rozwiązań stowarzyszonych w AWS z siedzibą w Austin w Teksasie. Uzyskał tytuł magistra inżynierii oprogramowania ze specjalizacją w przetwarzaniu w chmurze i wirtualizacji oraz tytuł licencjata inżynierii komputerowej na Uniwersytecie Stanowym w San Jose. Jego pasją jest wykorzystywanie technologii w celu poprawy życia ludzi ze wszystkich środowisk.

Znak czasu:

Więcej z Uczenie maszynowe AWS