Poenostavite dostop do notranjih informacij z uporabo Retrieval Augmented Generation in LangChain Agents | Spletne storitve Amazon

Poenostavite dostop do notranjih informacij z uporabo Retrieval Augmented Generation in LangChain Agents | Spletne storitve Amazon

Ta objava vas popelje skozi najpogostejše izzive, s katerimi se soočajo stranke pri iskanju po notranjih dokumentih, in vam daje konkretne napotke o tem, kako je mogoče storitve AWS uporabiti za ustvarjanje generativnega AI pogovornega bota, ki naredi notranje informacije bolj uporabne.

Nestrukturirani podatki predstavljajo 80 % vseh podatkov najdemo v organizacijah in so sestavljeni iz skladišč priročnikov, PDF-jev, pogostih vprašanj, e-poštnih sporočil in drugih dokumentov, ki rastejo vsak dan. Podjetja se danes zanašajo na stalno rastoča skladišča notranjih informacij in težave nastanejo, ko količina nestrukturiranih podatkov postane neobvladljiva. Uporabniki pogosto berejo in preverjajo številne različne notranje vire, da bi našli odgovore, ki jih potrebujejo.

Interni forumi za vprašanja in odgovore lahko uporabnikom pomagajo pri pridobivanju zelo specifičnih odgovorov, vendar zahtevajo tudi daljše čakalne dobe. V primeru internih pogostih vprašanj, specifičnih za podjetje, dolge čakalne dobe povzročijo nižjo produktivnost zaposlenih. Forume z vprašanji in odgovori je težko meriti, saj temeljijo na ročno napisanih odgovorih. Z generativno umetno inteligenco trenutno prihaja do spremembe paradigme v tem, kako uporabniki iščejo in najdejo informacije. Naslednji logični korak je uporaba generativne umetne inteligence za strnitev velikih dokumentov v manjše informacije velikosti zalogaj za lažjo uporabniško uporabo. Namesto da bi porabili dolgo časa za branje besedila ali čakanje na odgovore, lahko uporabniki ustvarijo povzetke v realnem času na podlagi več obstoječih skladišč internih informacij.

Pregled rešitev

Rešitev omogoča strankam, da pridobijo izbrane odgovore na vprašanja o internih dokumentih z uporabo transformatorskega modela za generiranje odgovorov na vprašanja o podatkih, o katerih niso bili usposobljeni, tehnika, znana kot zero-shot prompting. S sprejetjem te rešitve lahko stranke pridobijo naslednje prednosti:

  • Poiščite natančne odgovore na vprašanja na podlagi obstoječih virov internih dokumentov
  • Zmanjšajte čas, ki ga uporabniki porabijo za iskanje odgovorov, z uporabo velikih jezikovnih modelov (LLM) za zagotavljanje skoraj takojšnjih odgovorov na zapletena vprašanja z uporabo dokumentov z najnovejšimi informacijami
  • Iščite prej odgovorjena vprašanja prek centralizirane nadzorne plošče
  • Zmanjšajte stres, ki ga povzroča poraba časa za ročno branje informacij za iskanje odgovorov

Retrieval Augmented Generation (RAG)

Retrieval Augmented Generation (RAG) zmanjša nekatere pomanjkljivosti poizvedb, ki temeljijo na LLM, tako da poišče odgovore v vaši bazi znanja in uporabi LLM za povzetek dokumentov v jedrnate odgovore. Prosim preberite to objava naučiti se izvajati pristop RAG Amazonska Kendra. Naslednja tveganja in omejitve so povezane s poizvedbami, ki temeljijo na LLM in jih obravnava pristop RAG z Amazon Kendra:

  • Halucinacije in sledljivost – LLMS se urijo na velikih nizih podatkov in ustvarjajo odgovore na verjetnosti. To lahko vodi do netočnih odgovorov, ki so znani kot halucinacije.
  • Več podatkovnih silosov – Za sklicevanje na podatke iz več virov v vašem odzivu je treba vzpostaviti povezovalni ekosistem za združevanje podatkov. Dostop do več repozitorijev je ročni in dolgotrajen.
  • Varnost – Varnost in zasebnost sta ključnega pomena pri uvajanju pogovornih botov, ki jih poganjata RAG in LLM. Kljub uporabi Amazonsko razumevanje za filtriranje osebnih podatkov, ki so lahko posredovani prek uporabniških poizvedb, ostaja možnost nenamernega prikazovanja osebnih ali občutljivih podatkov, odvisno od zaužitih podatkov. To pomeni, da je nadzor dostopa do chatbota ključnega pomena za preprečevanje nenamernega dostopa do občutljivih informacij.
  • Relevantnost podatkov – LLMS se usposabljajo na podatkih do določenega datuma, kar pomeni, da informacije pogosto niso aktualne. Stroški, povezani z modeli usposabljanja na zadnjih podatkih, so visoki. Za zagotavljanje natančnih in ažurnih odgovorov so organizacije odgovorne za redno posodabljanje in obogatitev vsebine indeksiranih dokumentov.
  • Stroški – stroški, povezani z uvedbo te rešitve, bi morali upoštevati podjetja. Podjetja morajo pri izvajanju te rešitve skrbno oceniti svoj proračun in zahteve glede učinkovitosti. Izvajanje LLM lahko zahteva precejšnje računalniške vire, kar lahko poveča operativne stroške. Ti stroški lahko postanejo omejitev za aplikacije, ki morajo delovati v velikem obsegu. Vendar pa je ena od prednosti AWS Cloud je prilagodljivost, da plačate samo tisto, kar uporabljate. AWS ponuja preprost, dosleden cenovni model plačevanja po uporabi, tako da vam zaračunamo samo vire, ki jih porabite.

Uporaba Amazon SageMaker JumpStart

Za jezikovne modele, ki temeljijo na transformatorjih, lahko organizacije izkoristijo uporabo Amazon SageMaker JumpStart, ki ponuja zbirko vnaprej izdelanih modelov strojnega učenja. Amazon SageMaker JumpStart ponuja široko paleto temeljnih modelov za generiranje besedila in odgovarjanje na vprašanja (Q&A), ki jih je mogoče preprosto namestiti in uporabiti. Ta rešitev integrira model FLAN T5-XL Amazon SageMaker JumpStart, vendar je treba upoštevati različne vidike, ko izbira modela temeljev.

Integracija varnosti v naš potek dela

Po najboljših praksah varnostnega stebra Dobro zasnovan okvir, Amazon Cognito se uporablja za avtentikacijo. Amazon Cognito User Pools je mogoče integrirati s ponudniki identitet drugih proizvajalcev, ki podpirajo več ogrodij, ki se uporabljajo za nadzor dostopa, vključno z Open Authorization (OAuth), OpenID Connect (OIDC) ali Security Assertion Markup Language (SAML). Prepoznavanje uporabnikov in njihovih dejanj omogoča rešitvi ohranjanje sledljivosti. Rešitev uporablja tudi Amazon Comprehend zaznavanje osebno določljivih podatkov (PII). funkcijo za samodejno identifikacijo in redigiranje PII. Redigirani osebni podatki vključujejo naslove, številke socialnega zavarovanja, e-poštne naslove in druge občutljive podatke. Ta zasnova zagotavlja, da so vsi podatki, ki omogočajo osebno prepoznavo, ki jih posreduje uporabnik prek vnosne poizvedbe, redigirani. Podatki, ki omogočajo osebno prepoznavo, niso shranjeni, uporabljeni s strani Amazon Kendre ali posredovani LLM.

Vodenje rešitve

Naslednji koraki opisujejo potek dela odgovarjanja na vprašanja v toku dokumentov:

  1. Uporabniki pošljejo povpraševanje prek spletnega vmesnika.
  2. Amazon Cognito se uporablja za avtentikacijo, ki zagotavlja varen dostop do spletne aplikacije.
  3. Sprednji del spletne aplikacije gostuje na Ojačaj AWS.
  4. Amazon API Gateway gosti REST API z različnimi končnimi točkami za obravnavanje uporabniških zahtev, ki so overjene z uporabo Amazon Cognito.
  5. Redakcija PII z Amazonsko razumevanje:
    • Obdelava uporabniške poizvedbe: Ko uporabnik odda poizvedbo ali vnos, se ta najprej prenese skozi Amazon Comprehend. Storitev analizira besedilo in prepozna vse entitete PII, ki so prisotne v poizvedbi.
    • Ekstrakcija PII: Amazon Comprehend iz uporabniške poizvedbe izvleče zaznane entitete PII.
  6. Pridobivanje ustreznih informacij z Amazonska Kendra:
    • Amazon Kendra se uporablja za upravljanje indeksa dokumentov, ki vsebuje informacije, uporabljene za ustvarjanje odgovorov na uporabnikove poizvedbe.
    • O LangChain QA iskanje modul se uporablja za izgradnjo verige pogovorov, ki vsebuje ustrezne informacije o uporabnikovih poizvedbah.
  7. Integracija z Amazon SageMaker JumpStart:
    • Funkcija AWS Lambda uporablja knjižnico LangChain in se povezuje s končno točko Amazon SageMaker JumpStart s poizvedbo, ki je polnjena s kontekstom. Končna točka Amazon SageMaker JumpStart služi kot vmesnik LLM, ki se uporablja za sklepanje.
  8. Shranjevanje odgovorov in vrnitev uporabniku:
    • Odgovor LLM je shranjen v Amazon DynamoDB skupaj z uporabnikovo poizvedbo, časovnim žigom, edinstvenim identifikatorjem in drugimi poljubnimi identifikatorji za element, kot je kategorija vprašanja. Shranjevanje vprašanja in odgovora kot ločenih elementov omogoča funkciji AWS Lambda, da preprosto poustvari uporabnikovo zgodovino pogovorov na podlagi časa, ko so bila postavljena vprašanja.
    • Nazadnje je odgovor poslan nazaj uporabniku prek zahteve HTTPs prek odziva integracije API-ja REST API Gateway Amazon.

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Naslednji koraki opisujejo funkcije AWS Lambda in njihov potek skozi proces:

  1. Preverite in popravite morebitne PII/občutljive podatke
  2. LangChain QA Retrieval Chain
    • Poiščite in pridobite ustrezne informacije
  3. Polnjenje konteksta in hitri inženiring
  4. Sklepanje z LLM
  5. Vrnite odgovor in ga shranite

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Uporabite primeri

Obstaja veliko primerov poslovne uporabe, kjer lahko stranke uporabljajo ta potek dela. V naslednjem razdelku je razloženo, kako se lahko potek dela uporablja v različnih panogah in vertikalah.

Pomoč zaposlenih

Dobro zasnovano korporativno usposabljanje lahko izboljša zadovoljstvo zaposlenih in skrajša čas, potreben za uvajanje novih zaposlenih. Z rastjo organizacij in večanjem kompleksnosti zaposleni težko razumejo številne vire internih dokumentov. Notranji dokumenti v tem kontekstu vključujejo smernice podjetja, politike in standardne operativne postopke. Za ta scenarij ima zaposleni vprašanje, kako nadaljevati in urediti vozovnico notranje izdaje. Zaposleni lahko dostopa in uporablja pogovorni bot generativne umetne inteligence (AI), da vpraša in izvede naslednje korake za določeno vstopnico.

Poseben primer uporabe: Avtomatizirajte reševanje težav za zaposlene na podlagi smernic podjetja.

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Naslednji koraki opisujejo funkcije AWS Lambda in njihov potek skozi proces:

  1. Agent LangChain za prepoznavanje namere
  2. Pošljite obvestilo na zahtevo zaposlenih
  3. Spremenite status vozovnice

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

V tem arhitekturnem diagramu je mogoče zaužiti videoposnetke korporativnega usposabljanja Amazonski prepis za zbiranje dnevnika teh video scenarijev. Poleg tega je mogoče vsebino korporativnega usposabljanja, shranjeno v različnih virih (tj. Confluence, Microsoft SharePoint, Google Drive, Jira itd.), uporabiti za ustvarjanje indeksov prek konektorjev Amazon Kendra. Preberite ta članek, če želite izvedeti več o zbirki domačih priključki lahko uporabite v Amazon Kendra kot izvorno točko. Pajek Amazon Kendra lahko nato uporabi video skripte korporativnega usposabljanja in dokumentacijo, shranjeno v teh drugih virih, da pogovornemu botu pomaga pri odgovarjanju na vprašanja, specifična za smernice korporativnega usposabljanja podjetja. Agent LangChain preveri dovoljenja, spremeni status vozovnice in obvesti prave posameznike z uporabo storitve Amazon Simple Notification Service (Amazonska SNS).

Ekipe za podporo strankam

Hitro reševanje poizvedb strank izboljša uporabniško izkušnjo in spodbuja zvestobo blagovni znamki. Baza zvestih strank pomaga pospeševati prodajo, kar prispeva k rezultatu in povečuje angažiranost strank. Ekipe za podporo strankam porabijo veliko energije za sklicevanje na številne interne dokumente in programsko opremo za upravljanje odnosov s strankami, da odgovorijo na vprašanja strank o izdelkih in storitvah. Notranji dokumenti v tem kontekstu lahko vključujejo generične klicne skripte za podporo strankam, priročnike, smernice za stopnjevanje in poslovne informacije. Generativni AI pogovorni bot pomaga pri optimizaciji stroškov, ker obravnava poizvedbe v imenu ekipe za podporo strankam.

Poseben primer uporabe: Obravnava zahteve po menjavi olja na podlagi zgodovine servisiranja in kupljenega načrta storitev za stranke.

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

V tem arhitekturnem diagramu je stranka preusmerjena na generativni pogovorni bot AI ali Amazon Connect kontaktni center. Ta odločitev lahko temelji na ravni potrebne podpore ali razpoložljivosti agentov za podporo strankam. Agent LangChain identificira kupčev namen in preveri identiteto. Agent LangChain preveri tudi zgodovino storitev in kupljeni načrt podpore.

Naslednji koraki opisujejo funkcije AWS Lambda in njihov potek skozi proces:

  1. Agent LangChain identificira namen
  2. Pridobite podatke o stranki
  3. Preverite zgodovino storitev za stranke in informacije o garanciji
  4. Rezervirajte termin, zagotovite več informacij ali napotite do kontaktnega centra
  5. Pošlji potrditev po e-pošti

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Amazon Connect se uporablja za zbiranje glasovnih in klepetalnih dnevnikov, Amazon Comprehend pa se uporablja za odstranjevanje osebno določljivih podatkov (PII) iz teh dnevnikov. Pajek Amazon Kendra lahko nato uporabi redigirane glasovne dnevnike in dnevnike klepetov, skripte klicev strank in politike načrta podpore za stranke, da ustvari indeks. Ko je odločitev sprejeta, se generativni AI pogovorni bot odloči, ali bo rezerviral termin, zagotovil več informacij ali stranko usmeril v kontaktni center za nadaljnjo pomoč. Za optimizacijo stroškov lahko posrednik LangChain ustvari tudi odgovore z uporabo manj žetonov in cenejšega velikega jezikovnega modela za poizvedbe strank z nižjo prioriteto.

Finančne storitve

Podjetja za finančne storitve se zanašajo na pravočasno uporabo informacij, da ostanejo konkurenčna in izpolnjujejo finančne predpise. Z uporabo generativnega pogovornega bota z umetno inteligenco lahko finančni analitiki in svetovalci komunicirajo z besedilnimi informacijami na pogovorni način ter skrajšajo čas in trud, ki sta potrebna za sprejemanje bolj informiranih odločitev. Poleg naložb in tržnih raziskav lahko generativni pogovorni bot z umetno inteligenco tudi poveča človeške zmogljivosti z obravnavanjem nalog, ki bi tradicionalno zahtevale več človeškega truda in časa. Na primer, finančna institucija, specializirana za osebna posojila, lahko poveča hitrost obdelave posojil, hkrati pa strankam zagotovi večjo preglednost.

Poseben primer uporabe: Uporabite finančno zgodovino stranke in prejšnje vloge za posojilo, da se odločite in razložite odločitev o posojilu.

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Naslednji koraki opisujejo funkcije AWS Lambda in njihov potek skozi proces:

  1. Agent LangChain za prepoznavanje namere
  2. Preverite finančno in kreditno zgodovino stranke
  3. Preverite notranji sistem upravljanja odnosov s strankami
  4. Preverite standardne politike posojil in predlagajte odločitev za zaposlenega, ki izpolnjuje pogoje za posojilo
  5. Pošljite obvestilo stranki

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Ta arhitektura vključuje finančne podatke strank, shranjene v bazi podatkov, in podatke, shranjene v orodju za upravljanje odnosov s strankami (CRM). Te podatkovne točke se uporabljajo za obveščanje o odločitvi na podlagi internih posojilnih politik podjetja. Stranka lahko zastavi pojasnjevalna vprašanja, da razume, do katerih posojil je upravičena in pogoje posojil, ki jih lahko sprejme. Če generativni AI pogovorni bot ne more odobriti vloge za posojilo, lahko uporabnik še vedno postavlja vprašanja o izboljšanju kreditnih rezultatov ali alternativnih možnostih financiranja.

vlada

Generativni pogovorni boti z umetno inteligenco lahko močno koristijo vladnim institucijam s pospešitvijo komunikacije, učinkovitosti in procesov odločanja. Generativni pogovorni roboti z umetno inteligenco lahko zagotovijo tudi takojšen dostop do notranjih baz znanja, da državnim uslužbencem pomagajo hitro pridobiti informacije, pravilnike in postopke (tj. merila za upravičenost, postopke prijave ter storitve in podporo državljanom). Ena od rešitev je interaktivni sistem, ki davčnim zavezancem in davčnim strokovnjakom omogoča enostavno iskanje podrobnosti in ugodnosti v zvezi z davki. Uporablja se lahko za razumevanje vprašanj uporabnikov, povzemanje davčnih dokumentov in zagotavljanje jasnih odgovorov skozi interaktivne pogovore.

Uporabniki lahko postavljajo vprašanja, kot so:

  • Kako deluje davek na dediščino in kakšne so davčne meje?
  • Ali lahko pojasnite koncept dohodnine?
  • Kakšne so davčne posledice pri prodaji druge nepremičnine?

Poleg tega lahko uporabniki v sistem predložijo davčne obrazce, kar lahko pomaga pri preverjanju pravilnosti posredovanih informacij.

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Ta arhitektura ponazarja, kako lahko uporabniki naložijo izpolnjene davčne obrazce v rešitev in jo uporabijo za interaktivno preverjanje in vodenje, kako natančno izpolniti potrebne informacije.

Zdravstveno varstvo

Zdravstvena podjetja imajo možnost avtomatizirati uporabo velikih količin notranjih informacij o bolnikih, hkrati pa obravnavati pogosta vprašanja v zvezi s primeri uporabe, kot so možnosti zdravljenja, zavarovalniške terjatve, klinična preskušanja in farmacevtske raziskave. Uporaba generativnega pogovornega bota AI omogoča hitro in natančno generiranje odgovorov o zdravstvenih informacijah iz ponujene baze znanja. Na primer, nekateri zdravstveni delavci porabijo veliko časa za izpolnjevanje obrazcev za vložitev zavarovalnih zahtevkov.

V podobnih okoljih morajo skrbniki kliničnih preskušanj in raziskovalci najti informacije o možnostih zdravljenja. Generativni pogovorni bot z umetno inteligenco lahko uporabi vnaprej vgrajene konektorje v Amazon Kendra za pridobivanje najpomembnejših informacij iz milijonov dokumentov, objavljenih s tekočimi raziskavami, ki jih izvajajo farmacevtska podjetja in univerze.

Poseben primer uporabe: Zmanjšajte napake in čas, potreben za izpolnjevanje in pošiljanje zavarovalnih obrazcev.

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

V tem arhitekturnem diagramu lahko zdravstveni delavec uporabi generativni pogovorni bot AI, da ugotovi, katere obrazce je treba izpolniti za zavarovanje. Agent LangChain lahko nato pridobi prave obrazce in doda potrebne informacije za pacienta ter poda odgovore za opisne dele obrazcev na podlagi zavarovalnih polic in prejšnjih obrazcev. Zdravstveni delavec lahko uredi odgovore, ki jih je dal LLM, preden jih odobri in pošlje obrazec na zavarovalniški portal.

Naslednji koraki opisujejo funkcije AWS Lambda in njihov potek skozi proces:

  1. Agent LangChain za prepoznavanje namere
  2. Pridobite potrebne podatke o bolniku
  3. Izpolnite obrazec za zavarovanje na podlagi podatkov o bolniku in navodil za obrazec
  4. Po odobritvi uporabnika oddajte obrazec na zavarovalniški portal

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

AWS HealthLake se uporablja za varno shranjevanje zdravstvenih podatkov, vključno s prejšnjimi zavarovalnimi obrazci in podatki o pacientih, Amazon Comprehend pa se uporablja za odstranjevanje osebno določljivih podatkov (PII) iz prejšnjih zavarovalnih obrazcev. Pajek Amazon Kendra lahko nato uporabi nabor zavarovalnih obrazcev in smernic za ustvarjanje indeksa. Ko generativni AI izpolni obrazce, lahko obrazce, ki jih pregleda zdravstveni delavec, pošljejo na zavarovalniški portal.

Ocena stroškov

Stroški uvedbe osnovne rešitve kot dokaz koncepta so prikazani v naslednji tabeli. Ker se osnovna rešitev šteje za dokaz koncepta, je bila Amazon Kendra Developer Edition uporabljena kot poceni možnost, saj delovna obremenitev ne bi bila v proizvodnji. Naša predpostavka za Amazon Kendra Developer Edition je bila 730 aktivnih ur na mesec.

Za Amazon SageMaker smo domnevali, da bo stranka uporabljala instanco ml.g4dn.2xlarge za sklepanje v realnem času, z eno samo končno točko sklepanja na instanco. Najdete več informacij o cenah Amazon SageMaker in razpoložljivih vrstah primerkov sklepanja tukaj.

Service Porabljeni viri Ocena stroškov na mesec v USD
Ojačaj AWS 150 minut gradnje
1 GB podatkov
500,000 zahtev
15.71
Amazon API Gateway 1 milijon klicev REST API 3.5
AWS Lambda 1 milijon zahtev
Trajanje 5 sekund na zahtevo
2 GB dodeljenega pomnilnika
160.23
Amazon DynamoDB 1 milijon branj
1 milijon piše
100 GB shranjevanje
26.38
Amazon Sagemaker Sklepanje v realnem času z ml.g4dn.2xlarge 676.8
Amazonska Kendra Različica za razvijalce s 730 urami na mesec
10,000 skeniranih dokumentov
5,000 poizvedb/dan
821.25
. . Skupni stroški: 1703.87

* Amazon Cognito ima brezplačno stopnjo 50,000 mesečnih aktivnih uporabnikov, ki uporabljajo skupine uporabnikov Cognito, ali 50 mesečnih aktivnih uporabnikov, ki uporabljajo ponudnike identitete SAML 2.0

Clean Up

Če želite prihraniti stroške, izbrišite vse vire, ki ste jih razmestili kot del vadnice. Izbrišete lahko vse končne točke SageMaker, ki ste jih morda ustvarili prek konzole SageMaker. Ne pozabite, da brisanje indeksa Amazon Kendra ne odstrani izvirnih dokumentov iz vašega prostora za shranjevanje.

zaključek

V tej objavi smo vam pokazali, kako poenostaviti dostop do notranjih informacij s povzemanjem iz več skladišč v realnem času. Po nedavnem razvoju komercialno dostopnih LLM so postale možnosti generativne umetne inteligence bolj očitne. V tej objavi smo predstavili načine uporabe storitev AWS za ustvarjanje klepetalnega robota brez strežnika, ki za odgovarjanje na vprašanja uporablja generativni AI. Ta pristop vključuje plast preverjanja pristnosti in zaznavanje PII Amazon Comprehend za filtriranje vseh občutljivih informacij, navedenih v uporabniški poizvedbi. Ne glede na to, ali gre za posameznike v zdravstvu, ki razumejo nianse vložitve zavarovalnih zahtevkov, ali kadrovsko službo, ki razume posebne predpise za celotno podjetje, obstaja več panog in vertikal, ki jim lahko koristi ta pristop. Temeljni model Amazon SageMaker JumpStart je mehanizem za klepetalnim robotom, medtem ko se pristop polnjenja konteksta z uporabo tehnike RAG uporablja za zagotovitev, da se odgovori natančneje sklicujejo na notranje dokumente.

Če želite izvedeti več o delu z generativnim AI na AWS, glejte Napovedujemo nova orodja za gradnjo z Generative AI na AWS. Za bolj poglobljena navodila o uporabi tehnike RAG s storitvami AWS glejte Hitro zgradite visoko natančne aplikacije Generative AI na podatkih podjetja z uporabo Amazon Kendra, LangChain in velikih jezikovnih modelov. Ker je pristop v tem blogu agnostičen za LLM, se lahko za sklepanje uporabi kateri koli LLM. V naši naslednji objavi bomo orisali načine za implementacijo te rešitve z uporabo Amazon Bedrock in Amazon Titan LLM.


O avtorjih

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Abhishek Maligehalli Shivalingaiah je višji arhitekt rešitev za storitve umetne inteligence pri AWS. Navdušen je nad gradnjo aplikacij z uporabo Generative AI, Amazon Kendra in NLP. Ima približno 10 let izkušenj z gradnjo podatkov in rešitev AI za ustvarjanje vrednosti za stranke in podjetja. Izdelal je celo (osebnega) chatbota za zabavo, da odgovarja na vprašanja o svoji karieri in poklicni poti. Zunaj dela uživa v portretiranju družine in prijateljev ter rad ustvarja umetniška dela.

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Medha Aiyah je pridruženi arhitekt rešitev pri AWS s sedežem v Austinu v Teksasu. Pred kratkim je decembra 2022 diplomirala na Univerzi v Teksasu v Dallasu z magistrskim študijem računalništva s specializacijo iz inteligentnih sistemov s poudarkom na AI/ML. Zanima jo izvedeti več o AI/ML in uporabi storitev AWS za odkrivanje rešitev, ki lahko koristijo strankam.

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Hugo Tse je pridruženi arhitekt rešitev pri AWS s sedežem v Seattlu v Washingtonu. Ima magisterij iz informacijske tehnologije na državni univerzi Arizona in diplomiral iz ekonomije na univerzi v Chicagu. Je član združenja Information Systems Audit and Control Association (ISACA) in International Information System Security Certification Consortium (ISC)2. Uživa v tem, da strankam pomaga izkoristiti prednosti tehnologije.

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Ayman Ishimwe je pridruženi arhitekt rešitev pri AWS s sedežem v Seattlu v Washingtonu. Ima magisterij iz programskega inženiringa in IT na univerzi Oakland. Ima predhodne izkušnje z razvojem programske opreme, natančneje z gradnjo mikrostoritev za porazdeljene spletne aplikacije. Strastno želi pomagati strankam zgraditi robustne in razširljive rešitve v storitvah v oblaku AWS po najboljših praksah.

Simplify access to internal information using Retrieval Augmented Generation and LangChain Agents | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Shervin Suresh je pridruženi arhitekt rešitev pri AWS s sedežem v Austinu v Teksasu. Diplomiral je iz programskega inženiringa s koncentracijo v računalništvo v oblaku in virtualizacijo ter diplomiral iz računalniškega inženiringa na državni univerzi San Jose. Navdušen je nad uporabo tehnologije za izboljšanje življenj ljudi iz vseh okolij.

Časovni žig:

Več od Strojno učenje AWS