Użyj RAG do odkrywania leków dzięki bazom wiedzy dla Amazon Bedrock | Usługi internetowe Amazona

Użyj RAG do odkrywania leków dzięki bazom wiedzy dla Amazon Bedrock | Usługi internetowe Amazona

Amazońska skała macierzysta zapewnia szeroką gamę modeli od Amazon i dostawców zewnętrznych, w tym Anthropic, AI21, Meta, Cohere i Stability AI, i obejmuje szeroki zakres przypadków użycia, w tym generowanie tekstu i obrazów, osadzanie, czat, agenci wysokiego poziomu z rozumowaniem i orkiestracją i nie tylko. Bazy wiedzy na temat Amazon Bedrock umożliwia tworzenie wydajnych i dostosowanych aplikacji generacji rozszerzonej pobierania (RAG) w oparciu o zasoby wektorowe AWS i innych firm, korzystając zarówno z modeli AWS, jak i innych firm. Bazy wiedzy dla Amazon Bedrock automatyzują synchronizację danych ze sklepem wektorowym, w tym różnicowanie danych podczas ich aktualizacji, ładowanie i dzielenie dokumentów, a także osadzanie semantyczne. Umożliwia płynne dostosowywanie podpowiedzi i strategii wyszukiwania RAG — zapewniamy informację o źródle i automatycznie zajmujemy się zarządzaniem pamięcią. Bazy wiedzy są całkowicie bezserwerowe, więc nie musisz zarządzać żadną infrastrukturą, a korzystając z Baz wiedzy, płacisz tylko za używane modele, bazy danych wektorowych i pamięć masową.

RAG to popularna technika, która łączy wykorzystanie prywatnych danych z dużymi modelami językowymi (LLM). RAG rozpoczyna się od początkowego kroku polegającego na pobraniu odpowiednich dokumentów z magazynu danych (najczęściej z indeksu wektorowego) na podstawie zapytania użytkownika. Następnie wykorzystuje model językowy do wygenerowania odpowiedzi, biorąc pod uwagę zarówno pobrane dokumenty, jak i oryginalne zapytanie.

W tym poście pokazujemy, jak zbudować przepływ pracy RAG, korzystając z baz wiedzy dla Amazon Bedrock na potrzeby odkrywania nowych leków.

Przegląd baz wiedzy na temat Amazon Bedrock

Bazy wiedzy dla Amazon Bedrock obsługują szeroką gamę popularnych typów plików, w tym .txt, .docx, .pdf, .csv i inne. Aby umożliwić skuteczne odzyskiwanie danych prywatnych, powszechną praktyką jest najpierw dzielenie tych dokumentów na łatwe do zarządzania fragmenty. W bazie wiedzy Knowledge Base wdrożono domyślną strategię dzielenia na porcje, która sprawdza się w większości przypadków i umożliwia szybsze rozpoczęcie pracy. Jeśli potrzebujesz większej kontroli, Bazy wiedzy pozwalają kontrolować strategię dzielenia na porcje za pomocą zestawu wstępnie skonfigurowanych opcji. Możesz kontrolować maksymalny rozmiar tokena i stopień nakładania się fragmentów, aby zapewnić spójny kontekst osadzania. Bazy wiedzy dla Amazon Bedrock zarządzają procesem synchronizacji danych z Twojego Usługa Amazon Simple Storage (Amazon S3), dzieli je na mniejsze części, generuje osadzanie wektorów i przechowuje osadzania w indeksie wektorowym. Procesowi temu towarzyszy inteligentne zarządzanie różnicowaniem, przepustowością i awariami.

W czasie wykonywania model osadzania służy do konwertowania zapytania użytkownika na wektor. Następnie sprawdzany jest indeks wektora, aby znaleźć dokumenty podobne do zapytania użytkownika, porównując wektory dokumentów z wektorem zapytania użytkownika. W ostatnim kroku semantycznie podobne dokumenty pobrane z indeksu wektorowego dodawane są jako kontekst dla pierwotnego zapytania użytkownika. Podczas generowania odpowiedzi dla użytkownika w modelu tekstowym wyświetlane są semantycznie podobne dokumenty wraz z podaniem źródła w celu zapewnienia identyfikowalności.

Bazy wiedzy dla Amazon Bedrock obsługują wiele wektorowych baz danych, w tym Amazon OpenSearch bez serwera, Amazonka Aurora, Pinecone i Redis Enterprise Cloud. Interfejsy API Retrieve i RetrieveAndGenerate umożliwiają aplikacjom bezpośrednie wysyłanie zapytań do indeksu przy użyciu ujednoliconej i standardowej składni bez konieczności uczenia się oddzielnych interfejsów API dla każdej innej bazy danych wektorów, co zmniejsza potrzebę pisania niestandardowych zapytań indeksowych względem magazynu wektorów. Interfejs API Retrieve przyjmuje przychodzące zapytanie, konwertuje je na wektor osadzający i wysyła zapytanie do magazynu zaplecza przy użyciu algorytmów skonfigurowanych na poziomie bazy danych wektorów; API RetrieveAndGenerate wykorzystuje skonfigurowany przez użytkownika LLM dostarczony przez Amazon Bedrock i generuje ostateczną odpowiedź w języku naturalnym. Natywna obsługa śledzenia informuje aplikację żądającą o źródłach użytych do odpowiedzi na pytanie. W przypadku wdrożeń korporacyjnych, bazy wiedzy obsługują Usługa zarządzania kluczami AWS szyfrowanie (AWS KMS), Chmura AWS integracyjne i nie tylko.

W poniższych sekcjach pokazujemy, jak zbudować przepływ pracy RAG przy użyciu baz wiedzy dla Amazon Bedrock, wspieranych przez silnik wektorowy OpenSearch Serverless, w celu analizy nieustrukturyzowanego zbioru danych z badań klinicznych pod kątem przypadku użycia nowego leku. Dane te są bogate w informacje, ale mogą być bardzo niejednorodne. Właściwe posługiwanie się specjalistyczną terminologią i koncepcjami w różnych formatach jest niezbędne do wykrywania spostrzeżeń i zapewnienia integralności analitycznej. Dzięki bazom wiedzy dla Amazon Bedrock możesz uzyskać dostęp do szczegółowych informacji za pomocą prostych, naturalnych zapytań.

Zbuduj bazę wiedzy dla Amazon Bedrock

W tej sekcji demonstrujemy proces tworzenia bazy wiedzy dla Amazon Bedrock za pomocą konsoli. Wykonaj następujące kroki:

  1. Na konsoli Amazon Bedrock w sekcji orkiestracja w okienku nawigacji wybierz Blog.
  2. Dodaj Utwórz bazę wiedzy.

Użyj RAG do odkrywania leków dzięki bazom wiedzy dla Amazon Bedrock | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

  1. W Szczegóły bazy wiedzy sekcji wprowadź nazwę i opcjonalny opis.
  2. W Uprawnienia sekcja, wybierz Utwórz i użyj nowej roli usługi.
  3. W razie zamówieenia projektu Rola nazwy usługi, wprowadź nazwę swojej roli, która musi zaczynać się od AmazonBedrockExecutionRoleForKnowledgeBase_.
  4. Dodaj Następna.

Użyj RAG do odkrywania leków dzięki bazom wiedzy dla Amazon Bedrock | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

  1. W Źródło danych wprowadź nazwę źródła danych i identyfikator URI S3, w którym znajduje się zbiór danych. Bazy wiedzy obsługują następujące formaty plików:
    • Zwykły tekst (.txt)
    • Przecena (.md)
    • Język znaczników hipertekstowych (.html)
    • Dokument Microsoft Word (.doc/.docx)
    • Wartości oddzielone przecinkami (.csv)
    • Arkusz kalkulacyjny Microsoft Excel (.xls/.xlsx)
    • Przenośny format dokumentu (.pdf)
  1. Pod Dodatkowe ustawienia¸ wybierz preferowaną strategię dzielenia na porcje (w tym poście wybieramy Porcjowanie o stałym rozmiarze) i określ rozmiar porcji i nakładkę w procentach. Alternatywnie możesz użyć ustawień domyślnych.
  2. Dodaj Następna.

Użyj RAG do odkrywania leków dzięki bazom wiedzy dla Amazon Bedrock | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

  1. W Model osadzania w sekcji wybierz model Titan Embeddings z Amazon Bedrock.
  2. W Baza danych wektorowych sekcja, wybierz Szybko utwórz nowy sklep wektorowy, który zarządza procesem zakładania sklepu wektorowego.
  3. Dodaj Następna.

Użyj RAG do odkrywania leków dzięki bazom wiedzy dla Amazon Bedrock | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

  1. Przejrzyj ustawienia i wybierz Utwórz bazę wiedzy.

Użyj RAG do odkrywania leków dzięki bazom wiedzy dla Amazon Bedrock | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

  1. Poczekaj na zakończenie tworzenia bazy wiedzy i potwierdź jej status Gotowy.
  2. W Źródło danych sekcji lub na banerze u góry strony lub w wyskakującym okienku w oknie testowym wybierz Sync aby uruchomić proces ładowania danych z segmentu S3, dzielenia ich na fragmenty o określonym rozmiarze, generowania osadzania wektorów przy użyciu wybranego modelu osadzania tekstu i przechowywania ich w magazynie wektorów zarządzanym przez Bazy wiedzy dla Amazon Bedrock.

Użyj RAG do odkrywania leków dzięki bazom wiedzy dla Amazon Bedrock | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Funkcja synchronizacji obsługuje pozyskiwanie, aktualizację i usuwanie dokumentów z indeksu wektorowego na podstawie zmian w dokumentach w Amazon S3. Możesz także skorzystać z StartIngestionJob API do wyzwalania synchronizacji za pośrednictwem zestawu SDK AWS.

Po zakończeniu synchronizacji historia synchronizacji pokazuje stan Zakończona.

Użyj RAG do odkrywania leków dzięki bazom wiedzy dla Amazon Bedrock | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Zapytaj w bazie wiedzy

W tej sekcji pokazujemy, jak uzyskać dostęp do szczegółowych informacji w bazie wiedzy za pomocą prostych i naturalnych zapytań. Korzystamy z nieustrukturyzowanego syntetycznego zbioru danych składającego się z plików PDF, każdy o numerze strony od 10 do 100 stron, symulującego plan badań klinicznych proponowanego nowego leku, obejmujący metody analizy statystycznej i formularze zgody uczestników. Korzystamy z baz wiedzy dotyczących Amazon Bedrock retrieve_and_generate i retrieve API z Integracja Amazon Bedrock LangChain.

Zanim będziesz mógł pisać skrypty korzystające z API Amazon Bedrock, musisz zainstalować odpowiednią wersję pakietu AWS SDK w swoim środowisku. W przypadku skryptów Pythona będzie to plik AWS SDK dla Pythona (Boto3):

pip install langchain
pip install boto3

Dodatkowo włącz dostęp do modelu Amazon Titan Embeddings i Anthropic Claude v2 lub v1. Aby uzyskać więcej informacji, zobacz Dostęp do modelu.

Generuj pytania za pomocą Amazon Bedrock

Możemy użyć Anthropic Claude 2.1 dla Amazon Bedrock, aby zaproponować listę pytań, które należy zadać w odniesieniu do zbioru danych badania klinicznego:

import boto3
from langchain.llms.bedrock import Bedrock

bedrock_client = boto3.client("bedrock-runtime")

# Start with the query
prompt = "For medical research trial consent forms to sign, what are the top 5 questions can be asked?"

claude_llm = Bedrock(
    model_id="anthropic.claude-v2:1",
    model_kwargs={"temperature": 0, "top_k": 10, "max_tokens_to_sample": 3000},
    client=bedrock_client,
)

# Provide the prompt to the LLM to generate an answer to the query without any additional context provided
response = claude_llm(prompt)
questions = [
    item.split(".")[1].strip() for item in response.strip().split("nn")[1:-1]
]
questions
>>> answer:
'What is the purpose of the study? Make sure you understand the goals of the research and what the study procedures will entail',
'What are the risks and potential benefits? The form should explain all foreseeable risks, side effects, or discomforts you might experience from participating',
'What will participation involve? Get details on what tests, medications, lifestyle changes, or procedures you will go through, how much time it will take, and how long the study will last',
'Are there any costs or payments? Ask if you will be responsible for any costs related to the study or get paid for participating',
'How will my privacy be protected? The form should explain how your personal health information will be kept confidential before, during, and after the trial'

Użyj interfejsu API Amazon Bedrock RetrieveAndGenerate

Aby uzyskać w pełni zarządzane środowisko RAG, możesz skorzystać z natywnych baz wiedzy dla Amazon Bedrock RetrieveAndGenerate API umożliwiające bezpośrednie uzyskanie odpowiedzi:

bedrock_agent_client = boto3.client("bedrock-agent-runtime")

kb_id = "<YOUR_KNOWLEDGE_BASE_ID>"

def retrieveAndGenerate(
    input: str,
    kbId: str,
    region: str = "us-east-1",
    sessionId: str = None,
    model_id: str = "anthropic.claude-v2:1",
):
    model_arn = f"arn:aws:bedrock:{region}::foundation-model/{model_id}"

    if sessionId:
        return bedrock_agent_client.retrieve_and_generate(
            input={"text": input},
            retrieveAndGenerateConfiguration={
                "type": "KNOWLEDGE_BASE",
                "knowledgeBaseConfiguration": {
                    "knowledgeBaseId": kbId,
                    "modelArn": model_arn,
                },
            },
            sessionId=sessionId,
        )

    else:
        return bedrock_agent_client.retrieve_and_generate(
            input={"text": input},
            retrieveAndGenerateConfiguration={
                "type": "KNOWLEDGE_BASE",
                "knowledgeBaseConfiguration": {
                    "knowledgeBaseId": kbId,
                    "modelArn": model_arn,
                },
            },
        )

response = retrieveAndGenerate(
    "What are the potential risks and benefits of participating?", kb_id
)

generated_text = response["output"]["text"]
>>> "The potential risks include side effects from the study medication lithium such as nausea, loose stools, thirst, urination changes, shakiness, headaches, sweating, fatigue, decreased concentration, and skin rash. There is also a risk of lithium interaction with other medications. For women, there is a risk of birth defects if lithium is taken during pregnancy. There are no guaranteed benefits, but possible benefits include new information that could help the participant from the interviews and tests conducted during the study."

Cytowane źródło informacji można uzyskać za pomocą następującego kodu (niektóre dane wyjściowe zostały zredagowane dla zwięzłości):

response["citations"]

>>> [
    {
        "generatedResponsePart": {
            "textResponsePart": {
                "text": " The potential risks include side effects from the study...",
                "span": {"start": 0, "end": 361},
            }
        },
        "retrievedReferences": [
            {
                "content": {
                    "text": "590 ICF#2 Page 7 of 19 The primary risks and discomforts of participation…"
                },
                "location": {"type": "S3", "s3Location": {"uri": "s3://XXXX/XXXX.pdf"}},
            },
            {
                "content": {
                    "text": "N/A CSP 590 ICF#2 Page 10 of 19 Risks associated with suddenly stopping study medications..."
                },
                "location": {"type": "S3", "s3Location": {"uri": "s3://XXXX/XXXX.pdf"}},
            },
        ],
    },
    {
        "generatedResponsePart": {
            "textResponsePart": {
                "text": " There are no guaranteed benefits, but possible benefits include...",
                "span": {"start": 363, "end": 531},
            }
        },
        "retrievedReferences": [
            {
                "content": {
                    "text": "research, not usual clinical care. After these are done we ask..."
                },
                "location": {"type": "S3", "s3Location": {"uri": "s3://XXXX/XXXX.pdf"}},
            }
        ],
    },
]

Przekazując identyfikator sesji RetrieveAndGenerate API, możesz zachować kontekst rozmowy i zadawać pytania uzupełniające. Na przykład, jeśli bez kontekstu poprosisz o więcej szczegółów z poprzedniej odpowiedzi, odpowiedź może nie być poprawna:

retrieveAndGenerate("elaborate more on the first side effect", kb_id, sessionId=None)["output"]["text"]
>>> "The search results do not provide additional details about the mild nausea side effect that would allow me to elaborate further on it."

Jednak przekazując identyfikator sesji, potok RAG jest w stanie zidentyfikować odpowiedni kontekst i zwrócić odpowiednie odpowiedzi:

retrieveAndGenerate("elaborate more on the first side effect", kb_id, sessionId=response["sessionId"])["output"]["text"]
>>> "The search results provide details that nausea from taking lithium is usually mild and goes away after days or weeks for most people. Specifically, up to 75% of people may experience mild nausea when first starting lithium, but this goes away in 90-99% of people who continue taking it."

Poniższa tabela przedstawia pobrane odpowiedzi na wszystkie odpowiednie pytania.

Question Odpowiedź
Jaki jest cel badania? Upewnij się, że rozumiesz cele badania i jakie będą jego procedury. Celem badania jest sprawdzenie, czy lit jest skuteczny w zapobieganiu powtarzającym się samoukierunkowanym aktom samobójczym u pacjentów z depresją lub chorobą afektywną dwubiegunową.
Jakie są zagrożenia i potencjalne korzyści? Formularz powinien wyjaśniać wszystkie przewidywalne ryzyko, skutki uboczne lub dyskomforty, których możesz doświadczyć w związku z uczestnictwem. Możliwe ryzyko lub dyskomfort obejmuje: pytania podczas rozmowy kwalifikacyjnej powodujące dyskomfort, skutki uboczne leków litowych, takie jak nudności, luźne stolce, pragnienie, zmiany w oddawaniu moczu, drżenie, bóle głowy, pocenie się, zmęczenie, zmniejszona koncentracja, wysypka skórna, zmiany w tarczycy, nasilenie trądziku /łuszczyca, toksyczność litu i ryzyko nagłego przerwania leczenia. Potencjalne korzyści są takie, że testy mogą dostarczyć nowych informacji, które pomogą uczestnikowi, a lit może pomóc w zapobieganiu powtarzającym się samobójstwom u osób cierpiących na depresję lub chorobę afektywną dwubiegunową.
Na czym będzie polegał udział? Uzyskaj szczegółowe informacje na temat badań, leków, zmian w stylu życia lub procedur, przez które będziesz przechodził, ile czasu to zajmie i jak długo potrwa badanie. Udział będzie polegał na wypełnieniu wywiadu i kwestionariuszy dotyczących myślenia, zachowań, leczenia zdrowia psychicznego, leków, używania alkoholu i narkotyków, wsparcia domowego i społecznego oraz zrozumienia wyników badania. Zajmuje to około dwóch godzin i można je przeprowadzić podczas kilku sesji, osobiście lub przez telefon. Jeśli kwalifikują się do pełnego badania, w ciągu jednego roku odbędzie się około 20 wizyt studyjnych. Będzie to obejmować przyjmowanie badanego leku, sprawdzanie parametrów życiowych, wypełnianie kwestionariuszy, ocenę skutków ubocznych oraz kontynuowanie normalnej opieki medycznej i psychicznej.
Czy są jakieś koszty lub płatności? Zapytaj, czy będziesz ponosić wszelkie koszty związane z badaniem lub czy będziesz otrzymywać wynagrodzenie za udział. Tak, w wynikach wyszukiwania omawiane są koszty i płatności. Nie poniesiesz żadnych opłat za żadne zabiegi ani procedury będące częścią badania. Jednakże nadal będziesz musiał płacić zwykłe dopłaty VA za opiekę i leki niezwiązane z badaniem. Nie otrzymasz zapłaty za udział, ale badanie zwróci koszty związane z uczestnictwem, takie jak transport, parking itp. Podano kwoty i przebieg zwrotu.
W jaki sposób moja prywatność będzie chroniona? Formularz powinien wyjaśniać, w jaki sposób Twoje dane dotyczące zdrowia będą traktowane jako poufne przed, w trakcie i po badaniu. Twoja prywatność będzie chroniona poprzez przeprowadzanie wywiadów na osobności, przechowywanie pisemnych notatek w zamkniętych aktach i biurach, przechowywanie informacji elektronicznych w plikach zaszyfrowanych i chronionych hasłem oraz uzyskiwanie Certyfikatu Poufności od Departamentu Zdrowia i Opieki Społecznej, aby zapobiec ujawnieniu informacji identyfikujących Cię . Informacje umożliwiające Twoją identyfikację mogą zostać udostępnione lekarzom odpowiedzialnym za Twoją opiekę lub audytom i ocenom przeprowadzanym przez agencje rządowe, ale rozmowy i dokumenty dotyczące badania nie umożliwią Twojej identyfikacji.

Zapytanie za pomocą interfejsu API Amazon Bedrock Retrieve

Aby dostosować przepływ pracy RAG, możesz użyć interfejsu Retrieve API, aby pobrać odpowiednie fragmenty na podstawie zapytania i przekazać je do dowolnego LLM dostarczonego przez Amazon Bedrock. Aby użyć interfejsu Retrieve API, zdefiniuj go w następujący sposób:

def retrieve(query: str, kbId: str, numberOfResults: int = 5):
    return bedrock_agent_client.retrieve(
        retrievalQuery={"text": query},
        knowledgeBaseId=kbId,
        retrievalConfiguration={
            "vectorSearchConfiguration": {"numberOfResults": numberOfResults}
        },
    )

Pobierz odpowiedni kontekst (z niektórymi wynikami zredagowanymi dla zwięzłości):

query = "What is the purpose of the medical research study?"
response = retrieve(query, kb_id, 3)
retrievalResults = response["retrievalResults"]
>>> [
    {
        "content": {"text": "You will not be charged for any procedures that..."},
        "location": {"type": "S3", "s3Location": {"uri": "s3://XXXXX/XXXX.pdf"}},
        "score": 0.6552521,
    },
    {
        "content": {"text": "and possible benefits of the study. You have been..."},
        "location": {"type": "S3", "s3Location": {"uri": "s3://XXXX/XXXX.pdf"}},
        "score": 0.6581577,
    },
    ...,
]

Wyodrębnij kontekst szablonu podpowiedzi:

def get_contexts(retrievalResults):
    contexts = []
    for retrievedResult in retrievalResults:
        contexts.append(retrievedResult["content"]["text"])
    return " ".join(contexts)

contexts = get_contexts(retrievalResults)

Zaimportuj moduły Pythona i skonfiguruj szablon pytania kontekstowego z odpowiedzią na pytanie, a następnie wygeneruj ostateczną odpowiedź:

from langchain.prompts import PromptTemplate

PROMPT_TEMPLATE = """
Human: You are an AI system working on medical trial research, and provides answers to questions 
by using fact based and statistical information when possible.
Use the following pieces of information to provide a concise answer to the question enclosed in <question> tags.
If you don't know the answer, just say that you don't know, don't try to make up an answer.

<context>
{context_str}
</context>

<question>
{query_str}
</question>

The response should be specific and use statistics or numbers when possible.

Assistant:"""

claude_prompt = PromptTemplate(
    template=PROMPT_TEMPLATE, input_variables=["context_str", "query_str"]
)

prompt = claude_prompt.format(context_str=contexts, query_str=query)
response = claude_llm(prompt)
>>> "Based on the context provided, the purpose of this medical research study is to evaluate the efficacy of lithium compared to a placebo in preventing suicide over a 1 year period. Specifically, participants will be randomly assigned to receive either lithium or a placebo pill for 1 year, with their doctors and the participants themselves not knowing which treatment they receive (double-blind). Blood lithium levels will be monitored and doses adjusted over the first 6-8 visits, then participants will be followed monthly for 1 year to assess outcomes."

Zapytanie wykorzystujące integrację z Amazon Bedrock LangChain

Aby stworzyć kompleksową, dostosowaną do indywidualnych potrzeb aplikację pytań i odpowiedzi, Bazy wiedzy dla Amazon Bedrock zapewniają integrację z LangChain. Aby skonfigurować retriever LangChain, podaj identyfikator bazy wiedzy i określ liczbę wyników, które mają zostać zwrócone z zapytania:

from langchain.retrievers.bedrock import AmazonKnowledgeBasesRetriever

retriever = AmazonKnowledgeBasesRetriever(
    knowledge_base_id=kb_id,
    retrieval_config={"vectorSearchConfiguration": {"numberOfResults": 4}},
)

Teraz skonfiguruj LangChain RetrievalQA i wygeneruj odpowiedzi z bazy wiedzy:

from langchain.chains import RetrievalQA

qa = RetrievalQA.from_chain_type(
    llm=claude_llm,
    chain_type="stuff",
    retriever=retriever,
    return_source_documents=True,
    chain_type_kwargs={"prompt": claude_prompt},
)

[qa(q)["result"] for q in questions]

Spowoduje to wygenerowanie odpowiednich odpowiedzi podobnych do tych wymienionych we wcześniejszej tabeli.

Sprzątać

Pamiętaj, aby usunąć następujące zasoby, aby uniknąć dodatkowych opłat:

Wnioski

Amazon Bedrock zapewnia szeroki zestaw głęboko zintegrowanych usług do obsługi aplikacji RAG dowolnej skali, dzięki czemu rozpoczęcie analizy danych firmy jest proste. Bazy wiedzy dla Amazon Bedrock integrują się z podstawowymi modelami Amazon Bedrock w celu tworzenia skalowalnych potoków osadzania dokumentów i usług wyszukiwania dokumentów w celu obsługi szerokiej gamy aplikacji wewnętrznych i przeznaczonych dla klientów. Jesteśmy podekscytowani nadchodzącą przyszłością, a Twoja opinia będzie odgrywać kluczową rolę w kierowaniu postępem tego produktu. Aby dowiedzieć się więcej o możliwościach Amazon Bedrock i baz wiedzy, zob Baza wiedzy dla Amazon Bedrock.


O autorach

Użyj RAG do odkrywania leków dzięki bazom wiedzy dla Amazon Bedrock | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.Marka Roya jest głównym architektem uczenia maszynowego dla AWS, pomagając klientom projektować i budować rozwiązania AI/ML. Praca Marka obejmuje szeroki zakres przypadków użycia ML, ze szczególnym uwzględnieniem widzenia komputerowego, głębokiego uczenia się i skalowania ML w całym przedsiębiorstwie. Pomógł firmom z wielu branż, w tym ubezpieczeń, usług finansowych, mediów i rozrywki, opieki zdrowotnej, usług użyteczności publicznej i produkcji. Mark posiada sześć certyfikatów AWS, w tym certyfikat specjalizacji ML. Przed dołączeniem do AWS Mark był architektem, programistą i liderem technologii przez ponad 25 lat, w tym 19 lat w usługach finansowych.

Użyj RAG do odkrywania leków dzięki bazom wiedzy dla Amazon Bedrock | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.Mani Chanuja jest Tech Lead – Generative AI Specialists, autorką książki – Applied Machine Learning and High Performance Computing on AWS oraz członkiem Rady Dyrektorów Fundacji ds. Kobiet w Edukacji Produkcyjnej. Prowadzi projekty uczenia maszynowego (ML) w różnych dziedzinach, takich jak widzenie komputerowe, przetwarzanie języka naturalnego i generatywna sztuczna inteligencja. Pomaga klientom budować, szkolić i wdrażać duże modele uczenia maszynowego na dużą skalę. Występuje na konferencjach wewnętrznych i zewnętrznych takich jak: Invent, Women in Manufacturing West, webinarach na YouTube i GHC 23. W wolnym czasie lubi długie biegi po plaży.

Użyj RAG do odkrywania leków dzięki bazom wiedzy dla Amazon Bedrock | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.Dr Baichuan Sun, obecnie pełniący funkcję starszego architekta rozwiązań AI/ML w AWS, koncentruje się na generatywnej sztucznej inteligencji i wykorzystuje swoją wiedzę z zakresu analityki danych i uczenia maszynowego, aby dostarczać praktyczne rozwiązania biznesowe oparte na chmurze. Dzięki doświadczeniu w doradztwie w zakresie zarządzania i architekturze rozwiązań AI zajmuje się szeregiem złożonych wyzwań, w tym między innymi wizją komputerową robotyki, prognozowaniem szeregów czasowych i konserwacją predykcyjną. Jego praca opiera się na solidnym doświadczeniu w zakresie zarządzania projektami, prac badawczo-rozwojowych nad oprogramowaniem oraz zajęć akademickich. Poza pracą dr Sun ceni równowagę między podróżowaniem a spędzaniem czasu z rodziną i przyjaciółmi.

Użyj RAG do odkrywania leków dzięki bazom wiedzy dla Amazon Bedrock | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.Derricka Choo jest starszym architektem rozwiązań w AWS, skupiającym się na przyspieszaniu podróży klientów do chmury i przekształcaniu ich biznesu poprzez przyjęcie rozwiązań opartych na chmurze. Jego specjalistyczna wiedza dotyczy tworzenia aplikacji typu full-stack i uczenia maszynowego. Pomaga klientom projektować i budować kompleksowe rozwiązania obejmujące frontendowe interfejsy użytkownika, aplikacje IoT, API i integrację danych oraz modele uczenia maszynowego. Wolny czas lubi spędzać z rodziną oraz eksperymentować z fotografią i filmowaniem.

Użyj RAG do odkrywania leków dzięki bazom wiedzy dla Amazon Bedrock | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.Franka Winklera jest starszym architektem rozwiązań i specjalistą generatywnej sztucznej inteligencji w AWS z siedzibą w Singapurze, specjalizującym się w uczeniu maszynowym i generatywnej sztucznej inteligencji. Współpracuje z globalnymi firmami zajmującymi się technologiami cyfrowymi, aby tworzyć skalowalne, bezpieczne i opłacalne produkty i usługi na platformie AWS. W wolnym czasie spędza czas z synem i córką oraz podróżuje, aby cieszyć się falami w ASEAN.

Użyj RAG do odkrywania leków dzięki bazom wiedzy dla Amazon Bedrock | Amazon Web Services PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.Nihira Chadderwali jest starszym architektem rozwiązań AI/ML w globalnym zespole ds. opieki zdrowotnej i nauk przyrodniczych. Jego doświadczenie polega na budowaniu rozwiązań opartych na Big Data i sztucznej inteligencji na problemy klientów, szczególnie w dziedzinie biomedycyny, nauk przyrodniczych i opieki zdrowotnej. Fascynuje go także skrzyżowanie informatyki kwantowej i sztucznej inteligencji. Lubi uczyć się i wnosić wkład w tę przestrzeń. W wolnym czasie lubi grać w tenisa, podróżować i poznawać kosmologię.

Znak czasu:

Więcej z Uczenie maszynowe AWS