Samodejno ustvarjanje prikazov iz ugotovitev v radioloških poročilih z uporabo generativne umetne inteligence na AWS | Spletne storitve Amazon

Samodejno ustvarjanje prikazov iz ugotovitev v radioloških poročilih z uporabo generativne umetne inteligence na AWS | Spletne storitve Amazon

Radiološka poročila so izčrpni, dolgi dokumenti, ki opisujejo in interpretirajo rezultate radiološke slikovne preiskave. V tipičnem delovnem procesu radiolog nadzoruje, bere in interpretira slike ter nato jedrnato povzame ključne ugotovitve. Povzetek (oz vtis) je najpomembnejši del poročila, ker zdravnikom in bolnikom pomaga, da se osredotočijo na kritično vsebino poročila, ki vsebuje informacije za klinično odločanje. Ustvarjanje jasnega in vplivnega vtisa vključuje veliko več truda kot preprosto ponavljanje ugotovitev. Celoten postopek je zato naporen, dolgotrajen in nagnjen k napakam. Pogosto traja leta trening zdravnikom, da zberejo dovolj strokovnega znanja pri pisanju jedrnatih in informativnih povzetkov radioloških poročil, kar dodatno poudarja pomen avtomatizacije postopka. Dodatno samodejno ustvarjanje povzemanja ugotovitev poročila je ključnega pomena za radiološko poročanje. Omogoča prevajanje izvidov v človeku berljiv jezik, s čimer pacientom olajša branje dolgih in nejasnih izvidov.

Za rešitev te težave predlagamo uporabo generativne umetne inteligence, vrste umetne inteligence, ki lahko ustvari nove vsebine in ideje, vključno s pogovori, zgodbami, slikami, videi in glasbo. Generativno umetno inteligenco poganjajo modeli strojnega učenja (ML) – zelo veliki modeli, ki so vnaprej usposobljeni za ogromne količine podatkov in se običajno imenujejo osnovni modeli (FM). Nedavni napredek v strojnem jeziku (zlasti izum arhitekture nevronske mreže, ki temelji na transformatorju) je privedel do porasta modelov, ki vsebujejo milijarde parametrov ali spremenljivk. Predlagana rešitev v tej objavi uporablja natančno nastavitev vnaprej usposobljenih velikih jezikovnih modelov (LLM) za pomoč pri ustvarjanju povzetkov na podlagi ugotovitev v radioloških poročilih.

Ta objava prikazuje strategijo za natančno prilagajanje javno dostopnih LLM za nalogo povzemanja radioloških poročil z uporabo storitev AWS. LLM-ji so pokazali izjemne sposobnosti razumevanja in ustvarjanja naravnega jezika ter služijo kot temeljni modeli, ki jih je mogoče prilagoditi različnim področjem in nalogam. Uporaba vnaprej usposobljenega modela ima pomembne prednosti. Zmanjšuje stroške računanja, zmanjšuje ogljične odtise in vam omogoča uporabo najsodobnejših modelov, ne da bi morali usposobiti enega od začetka.

Naša rešitev uporablja FLAN-T5 XL FM, z uporabo Amazon SageMaker JumpStart, ki je središče ML, ki ponuja algoritme, modele in rešitve ML. Pokažemo, kako to doseči z uporabo zvezka v Amazon SageMaker Studio. Natančna nastavitev vnaprej usposobljenega modela vključuje nadaljnje usposabljanje na določenih podatkih za izboljšanje učinkovitosti pri drugačni, a povezani nalogi. Ta rešitev vključuje natančno nastavitev modela FLAN-T5 XL, ki je izboljšana različica T5 (Text-to-Text Transfer Transformer) univerzalni LLM-ji. T5 v nasprotju z BERTI-style modeli, ki lahko izpišejo samo oznako razreda ali razpon vnosa. Natančno je prilagojen za nalogo povzemanja 91,544 radioloških poročil s prostim besedilom, pridobljenih iz Nabor podatkov MIMIC-CXR.

Pregled rešitve

V tem razdelku razpravljamo o ključnih komponentah naše rešitve: izbiri strategije za nalogo, natančnem prilagajanju LLM in ocenjevanju rezultatov. Ilustriramo tudi arhitekturo rešitve in korake za implementacijo rešitve.

Določite strategijo za nalogo

Obstajajo različne strategije za pristop k nalogi avtomatizacije povzemanja kliničnih poročil. Lahko bi na primer uporabili specializirani jezikovni model, ki je bil predhodno usposobljen za klinična poročila iz nič. Druga možnost je, da lahko neposredno prilagodimo javno dostopen splošni jezikovni model za izvedbo klinične naloge. Uporaba natančno nastavljenega domensko-agnostičnega modela bo morda potrebna v nastavitvah, kjer usposabljanje a jezikovni model iz nič je predrago. V tej rešitvi prikazujemo slednji pristop uporabe modela FLAN -T5 XL, ki ga natančno prilagodimo za klinično nalogo povzemanja radioloških poročil. Naslednji diagram prikazuje potek dela modela.

Automatically generate impressions from findings in radiology reports using generative AI on AWS | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Tipično radiološko poročilo je dobro organizirano in jedrnato. Takšna poročila imajo pogosto tri ključne razdelke:

  • Ozadje – Zagotavlja splošne informacije o demografiji pacienta z bistvenimi informacijami o pacientu, klinični anamnezi in ustrezni zdravstveni anamnezi ter podrobnosti o postopkih pregleda
  • Ugotovitve – Predstavi podrobno diagnozo in rezultate pregleda
  • tiskanje – Jedrnato povzema najpomembnejše ugotovitve ali interpretacijo ugotovitev z oceno pomembnosti in morebitno diagnozo na podlagi opaženih nenormalnosti

Z uporabo razdelka z ugotovitvami v radioloških poročilih rešitev ustvari razdelek z vtisi, ki ustreza povzetku zdravnikov. Naslednja slika je primer radiološkega poročila.

Automatically generate impressions from findings in radiology reports using generative AI on AWS | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Natančno prilagodite splošni LLM za klinično nalogo

V tej rešitvi natančno nastavimo model FLAN-T5 XL (nastavimo vse parametre modela in jih optimiziramo za nalogo). Model natančno prilagodimo z uporabo nabora podatkov klinične domene MIMIC-CXR, ki je javno dostopen nabor radiografij prsnega koša. Za natančno nastavitev tega modela prek SageMaker Jumpstart je treba zagotoviti označene primere v obliki parov {prompt, completion}. V tem primeru uporabimo pare {Findings, Impression} iz izvirnih poročil v naboru podatkov MIMIC-CXR. Za sklepanje uporabimo poziv, kot je prikazano v naslednjem primeru:

Automatically generate impressions from findings in radiology reports using generative AI on AWS | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Model je natančno nastavljen na pospešeno računalništvo ml.p3.16xvelika primerek s 64 virtualnimi procesorji in 488 GiB pomnilnika. Za validacijo je bilo naključno izbranih 5 % nabora podatkov. Pretečeni čas učnega opravila SageMaker s fino nastavitvijo je bil 38,468 sekund (približno 11 ur).

Ocenite rezultate

Ko je usposabljanje končano, je ključnega pomena oceniti rezultate. Za kvantitativno analizo ustvarjenega vtisa uporabljamo RED (Recall-Oriented Understudy for Gisting Evaluation), najpogosteje uporabljena metrika za ocenjevanje povzemanja. Ta metrika primerja samodejno ustvarjen povzetek s povzetkom ali prevodom sklica ali nabora sklicevanj (človeško izdelanega). ROUGE1 se nanaša na prekrivanje unigrami (vsaka beseda) med kandidatom (izhodom modela) in referenčnimi povzetki. ROUGE2 se nanaša na prekrivanje bigrami (dve besedi) med kandidatskim in referenčnim povzetkom. ROUGEL je metrika na ravni stavka in se nanaša na najdaljše skupno podzaporedje (LCS) med dvema deloma besedila. V besedilu ignorira nove vrstice. ROUGELsum je metrika na ravni povzetka. Za to metriko se nove vrstice v besedilu ne prezrejo, ampak se razlagajo kot meje stavka. LCS se nato izračuna med vsakim parom referenčnih in kandidatnih stavkov, nato pa se izračuna union-LCS. Za seštevek teh rezultatov v danem nizu referenčnih in kandidatnih stavkov se izračuna povprečje.

Vodenje in arhitektura

Celotna arhitektura rešitve, kot je prikazana na naslednji sliki, je sestavljena predvsem iz okolja za razvoj modela, ki uporablja SageMaker Studio, uvedbe modela s končno točko SageMaker in nadzorne plošče za poročanje, ki uporablja Amazon QuickSight.

Automatically generate impressions from findings in radiology reports using generative AI on AWS | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

V naslednjih razdelkih prikazujemo natančno nastavitev LLM, ki je na voljo na SageMaker JumpStart za povzemanje domensko specifične naloge prek SDK-ja SageMaker Python. Predvsem razpravljamo o naslednjih temah:

  • Koraki za nastavitev razvojnega okolja
  • Pregled naborov podatkov radioloških poročil, na katerih je model natančno nastavljen in ovrednoten
  • Predstavitev natančne nastavitve modela FLAN-T5 XL s programsko uporabo SageMaker JumpStart s SDK SageMaker Python
  • Sklepanje in vrednotenje vnaprej usposobljenih in natančno nastavljenih modelov
  • Primerjava rezultatov vnaprej usposobljenega modela in natančno nastavljenih modelov

Rešitev je na voljo v Ustvarjanje vtisa radiološkega poročila z uporabo generativne umetne inteligence z velikim jezikovnim modelom na AWS GitHub repo.

Predpogoji

Za začetek potrebujete AWS račun v katerem lahko uporabite SageMaker Studio. Če ga še nimate, boste morali ustvariti uporabniški profil za SageMaker Studio.

Vrsta primerka za usposabljanje, uporabljena v tej objavi, je ml.p3.16xlarge. Upoštevajte, da tip primerka p3 zahteva povečanje omejitve kvote storitve.

O Nabor podatkov MIMIC CXR je mogoče dostopati prek pogodbe o uporabi podatkov, ki zahteva registracijo uporabnika in dokončanje postopka poverilnice.

Nastavite razvojno okolje

Če želite nastaviti svoje razvojno okolje, ustvarite vedro S3, konfigurirate prenosni računalnik, ustvarite končne točke in razmestite modele ter ustvarite nadzorno ploščo QuickSight.

Ustvari vedro S3

Ustvari vedro S3 se imenuje llm-radiology-bucket za gostovanje naborov podatkov o usposabljanju in vrednotenju. To bo uporabljeno tudi za shranjevanje artefakta modela med razvojem modela.

Konfigurirajte prenosni računalnik

Izvedite naslednje korake:

  1. Zaženite SageMaker Studio iz konzole SageMaker ali iz Vmesnik ukazne vrstice AWS (AWS CLI).

Za več informacij o vključitvi v domeno glejte Vkrcajte se na domeno Amazon SageMaker.

  1. Ustvari novo SageMaker Studio prenosni računalnik za čiščenje podatkov poročila in natančno nastavitev modela. Uporabljamo primerek prenosnika ml.t3.medium 2vCPU+4GiB z jedrom Python 3.
  1. Znotraj prenosnega računalnika namestite ustrezne pakete, kot je npr nest-asyncio, IPyWidgets (za interaktivne gradnike za prenosnik Jupyter) in SDK za SageMaker Python:
!pip install nest-asyncio==1.5.5 --quiet !pip install ipywidgets==8.0.4 --quiet !pip install sagemaker==2.148.0 --quiet

Ustvarite končne točke in razporedite modele za sklepanje

Za sklepanje vnaprej usposobljenih in natančno nastavljenih modelov, ustvarite končno točko in uvedite vsak model v zvezku takole:

  1. Iz razreda Model ustvarite objekt modela, ki ga je mogoče razmestiti na končno točko HTTPS.
  2. Ustvarite končno točko HTTPS z vnaprej zgrajenim predmetom modela deploy() metoda:
from sagemaker import model_uris, script_uris
from sagemaker.model import Model
from sagemaker.predictor import Predictor
from sagemaker.utils import name_from_base # Retrieve the URI of the pre-trained model
pre_trained_model_uri =model_uris.retrieve(model_id=model_id, model_version=model_version, model_scope="inference") large_model_env = {"SAGEMAKER_MODEL_SERVER_WORKERS": "1", "TS_DEFAULT_WORKERS_PER_MODEL": "1"} pre_trained_name = name_from_base(f"jumpstart-demo-pre-trained-{model_id}") # Create the SageMaker model instance of the pre-trained model
if ("small" in model_id) or ("base" in model_id): deploy_source_uri = script_uris.retrieve( model_id=model_id, model_version=model_version, script_scope="inference" ) pre_trained_model = Model( image_uri=deploy_image_uri, source_dir=deploy_source_uri, entry_point="inference.py", model_data=pre_trained_model_uri, role=aws_role, predictor_cls=Predictor, name=pre_trained_name, )
else: # For those large models, we already repack the inference script and model # artifacts for you, so the `source_dir` argument to Model is not required. pre_trained_model = Model( image_uri=deploy_image_uri, model_data=pre_trained_model_uri, role=aws_role, predictor_cls=Predictor, name=pre_trained_name, env=large_model_env, ) # Deploy the pre-trained model. Note that we need to pass Predictor class when we deploy model
# through Model class, for being able to run inference through the SageMaker API
pre_trained_predictor = pre_trained_model.deploy( initial_instance_count=1, instance_type=inference_instance_type, predictor_cls=Predictor, endpoint_name=pre_trained_name,
)

Ustvari nadzorno ploščo QuickSight

Ustvarite Nadzorna plošča QuickSight z virom podatkov Athena z rezultati sklepanja Preprosta storitev shranjevanja Amazon (Amazon S3) za primerjavo rezultatov sklepanja z osnovno resnico. Naslednji posnetek zaslona prikazuje naš primer nadzorne plošče. Automatically generate impressions from findings in radiology reports using generative AI on AWS | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Podatkovni nizi radioloških poročil

Model je zdaj natančno nastavljen, vsi parametri modela so nastavljeni na 91,544 poročilih, prenesenih iz Nabor podatkov MIMIC-CXR v2.0. Ker smo uporabili samo besedilne podatke radiološkega poročila, smo prenesli samo eno stisnjeno datoteko poročila (mimic-cxr-reports.zip) s spletne strani MIMIC-CXR. Zdaj ocenjujemo natančno nastavljen model na 2,000 poročilih (v nadaljevanju dev1 nabor podatkov) iz ločenega držal podmnožico tega nabora podatkov. Uporabljamo še 2,000 radioloških izvidov (v nadaljevanju dev2) za oceno natančno nastavljenega modela iz zbirke rentgenskih slik prsnega koša iz Mreža bolnišnic Univerze Indiana. Vsi nabori podatkov se berejo kot datoteke JSON in naložijo v novo ustvarjeno vedro S3 llm-radiology-bucket. Upoštevajte, da vsi nabori podatkov privzeto ne vsebujejo zaščitenih zdravstvenih informacij (PHI); vsi občutljivi podatki so nadomeščeni s tremi zaporednimi podčrtaji (___) s strani ponudnikov.

Natančno nastavite s SDK SageMaker Python

Za natančno nastavitev, model_id je določeno kot huggingface-text2text-flan-t5-xl s seznama modelov SageMaker JumpStart. The training_instance_type je nastavljen kot ml.p3.16xlarge in inference_instance_type kot ml.g5.2xvelik. Podatki o usposabljanju v formatu JSON se berejo iz vedra S3. Naslednji korak je uporaba izbranega modela_id za ekstrahiranje URI-jev virov SageMaker JumpStart, vključno z image_uri ( Registar elastičnih zabojnikov Amazon (Amazon ECR) URI za sliko Docker), model_uri (predhodno usposobljen model artefakta Amazon S3 URI) in script_uri (skripta usposabljanja):

from sagemaker import image_uris, model_uris, script_uris # Training instance will use this image
train_image_uri = image_uris.retrieve( region=aws_region, framework=None, # automatically inferred from model_id model_id=model_id, model_version=model_version, image_scope="training", instance_type=training_instance_type,
) # Pre-trained model
train_model_uri = model_uris.retrieve( model_id=model_id, model_version=model_version, model_scope="training"
) # Script to execute on the training instance
train_script_uri = script_uris.retrieve( model_id=model_id, model_version=model_version, script_scope="training"
) output_location = f"s3://{output_bucket}/demo-llm-rad-fine-tune-flan-t5/"

Poleg tega je izhodna lokacija nastavljena kot mapa znotraj vedra S3.

Samo en hiperparameter, epohe, je spremenjen na 3, vsi ostali pa so nastavljeni kot privzeti:

from sagemaker import hyperparameters # Retrieve the default hyper-parameters for fine-tuning the model
hyperparameters = hyperparameters.retrieve_default(model_id=model_id, model_version=model_version) # We will override some default hyperparameters with custom values
hyperparameters["epochs"] = "3"
print(hyperparameters)

Meritve usposabljanja, kot je npr eval_loss (za izgubo validacije), loss (za izgubo treninga) in epoch ki jim je treba slediti, so opredeljeni in navedeni:

from sagemaker.estimator import Estimator
from sagemaker.utils import name_from_base model_name = "-".join(model_id.split("-")[2:]) # get the most informative part of ID
training_job_name = name_from_base(f"js-demo-{model_name}-{hyperparameters['epochs']}")
print(f"{bold}job name:{unbold} {training_job_name}") training_metric_definitions = [ {"Name": "val_loss", "Regex": "'eval_loss': ([0-9.]+)"}, {"Name": "train_loss", "Regex": "'loss': ([0-9.]+)"}, {"Name": "epoch", "Regex": "'epoch': ([0-9.]+)"},
]

Uporabljamo URI virov SageMaker JumpStart (image_uri, model_uri, script_uri), identificiran prej, da ustvarite ocenjevalec in ga natančno prilagodite na naboru podatkov za usposabljanje tako, da določite pot S3 nabora podatkov. Razred Estimator zahteva an entry_point parameter. V tem primeru uporablja JumpStart transfer_learning.py. Učno opravilo se ne izvaja, če ta vrednost ni nastavljena.

# Create SageMaker Estimator instance
sm_estimator = Estimator( role=aws_role, image_uri=train_image_uri, model_uri=train_model_uri, source_dir=train_script_uri, entry_point="transfer_learning.py", instance_count=1, instance_type=training_instance_type, volume_size=300, max_run=360000, hyperparameters=hyperparameters, output_path=output_location, metric_definitions=training_metric_definitions,
) # Launch a SageMaker training job over data located in the given S3 path
# Training jobs can take hours, it is recommended to set wait=False,
# and monitor job status through SageMaker console
sm_estimator.fit({"training": train_data_location}, job_name=training_job_name, wait=True)

To usposabljanje lahko traja več ur; zato je priporočljivo, da parameter čakanja nastavite na False in spremljate status opravila usposabljanja na konzoli SageMaker. Uporabi TrainingJobAnalytics funkcija za spremljanje metrik usposabljanja ob različnih časovnih žigih:

from sagemaker import TrainingJobAnalytics # Wait for a couple of minutes for the job to start before running this cell
# This can be called while the job is still running
df = TrainingJobAnalytics(training_job_name=training_job_name).dataframe()

Razmestite končne točke sklepanja

Da naredimo primerjave, uvedemo končne točke sklepanja za predhodno usposobljene in natančno nastavljene modele.

Najprej pridobite sklepni URI slike Docker z uporabo model_idin uporabite ta URI za ustvarjanje primerka modela SageMaker vnaprej usposobljenega modela. Razmestite vnaprej usposobljeni model tako, da ustvarite končno točko HTTPS s predhodno zgrajenim objektom modela deploy() metoda. Če želite zagnati sklepanje prek API-ja SageMaker, se prepričajte, da ste posredovali razred Predictor.

from sagemaker import image_uris
# Retrieve the inference docker image URI. This is the base HuggingFace container image
deploy_image_uri = image_uris.retrieve( region=aws_region, framework=None, # automatically inferred from model_id model_id=model_id, model_version=model_version, image_scope="inference", instance_type=inference_instance_type,
) # Retrieve the URI of the pre-trained model
pre_trained_model_uri = model_uris.retrieve( model_id=model_id, model_version=model_version, model_scope="inference"
) pre_trained_model = Model( image_uri=deploy_image_uri, model_data=pre_trained_model_uri, role=aws_role, predictor_cls=Predictor, name=pre_trained_name, env=large_model_env, ) # Deploy the pre-trained model. Note that we need to pass Predictor class when we deploy model
# through Model class, for being able to run inference through the SageMaker API
pre_trained_predictor = pre_trained_model.deploy( initial_instance_count=1, instance_type=inference_instance_type, predictor_cls=Predictor, endpoint_name=pre_trained_name,
)

Ponovite prejšnji korak, da ustvarite primerek modela SageMaker natančno nastavljenega modela in ustvarite končno točko za razmestitev modela.

Ocenite modele

Najprej nastavite dolžino povzetega besedila, število izhodov modela (naj bo večje od 1, če je treba ustvariti več povzetkov) in število žarkov za iskanje snopa.

Konstruirajte zahtevo za sklepanje kot obremenitev JSON in jo uporabite za poizvedovanje končnih točk za vnaprej usposobljene in natančno nastavljene modele.

Izračunajte agregirano ROUGE zadene (ROUGE1, ROUGE2, ROUGEL, ROUGELsum), kot je opisano prej.

Primerjajte rezultate

Naslednja tabela prikazuje rezultate ocenjevanja za dev1 in dev2 nabori podatkov. Rezultat ocenjevanja na dev1 (2,000 ugotovitev iz poročila o radiologiji MIMIC CXR) kaže izboljšanje skupnega povprečja za približno 38 odstotnih točk. ROUGE1 in ROUGE2 rezultate v primerjavi s predhodno usposobljenim modelom. Za dev2 je opaziti izboljšanje rezultatov ROUGE31 in ROUGE25 za 1 odstotnih točk in 2 odstotnih točk. Na splošno je natančno prilagajanje privedlo do izboljšanja rezultatov ROUGELsum za 38.2 odstotne točke in 31.3 odstotne točke. dev1 in dev2 naborov podatkov oz.

Ocenjevanje

Podatkovni niz

Vnaprej usposobljen model Dodelan model
ROUGE1 ROUGE2 ROUGEL ROUGELsum ROUGE1 ROUGE2 ROUGEL ROUGELsum
dev1 0.2239 0.1134 0.1891 0.1891 0.6040 0.4800 0.5705 0.5708
dev2 0.1583 0.0599 0.1391 0.1393 0.4660 0.3125 0.4525 0.4525

Naslednji okvirni diagrami prikazujejo porazdelitev rezultatov ROUGE za dev1 in dev2 naborov podatkov, ovrednotenih z natančno nastavljenim modelom.

Automatically generate impressions from findings in radiology reports using generative AI on AWS | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai. Automatically generate impressions from findings in radiology reports using generative AI on AWS | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.
(The): dev1 (b): dev2

Naslednja tabela kaže, da imajo rezultati ROUGE za nabore podatkov za vrednotenje približno enako mediano in povprečje in so zato simetrično porazdeljeni.

Podatkovni nizi Partitura Grof Pomeni Std odstopanje Minimalna 25 % percentil 50 % percentil 75 % percentil največja
dev1 ROUGE1 2000.00 0.6038 0.3065 0.0000 0.3653 0.6000 0.9384 1.0000
ROUGE 2 2000.00 0.4798 0.3578 0.0000 0.1818 0.4000 0.8571 1.0000
ROUGE L 2000.00 0.5706 0.3194 0.0000 0.3000 0.5345 0.9101 1.0000
ROUGELsum 2000.00 0.5706 0.3194 0.0000 0.3000 0.5345 0.9101 1.0000
dev2 ROUGE 1 2000.00 0.4659 0.2525 0.0000 0.2500 0.5000 0.7500 1.0000
ROUGE 2 2000.00 0.3123 0.2645 0.0000 0.0664 0.2857 0.5610 1.0000
ROUGE L 2000.00 0.4529 0.2554 0.0000 0.2349 0.4615 0.7500 1.0000
ROUGE Lsum 2000.00 0.4529 0.2554 0.0000 0.2349 0.4615 0.7500 1.0000

Čiščenje

Da se izognete prihodnjim stroškom, izbrišite vire, ki ste jih ustvarili z naslednjo kodo:

# Delete resources
pre_trained_predictor.delete_model()
pre_trained_predictor.delete_endpoint()
fine_tuned_predictor.delete_model()
fine_tuned_predictor.delete_endpoint()

zaključek

V tej objavi smo pokazali, kako natančno prilagoditi model FLAN-T5 XL za nalogo povzemanja, specifično za klinično domeno, s pomočjo SageMaker Studio. Da bi povečali zaupanje, smo napovedi primerjali z osnovno resnico in ovrednotili rezultate z metriko ROUGE. Dokazali smo, da model, natančno nastavljen za določeno nalogo, vrača boljše rezultate kot model, predhodno usposobljen za generično nalogo NLP. Radi bi poudarili, da fina nastavitev splošnega LLM popolnoma odpravi stroške predhodnega usposabljanja.

Čeprav se tukaj predstavljeno delo osredotoča na poročila o rentgenskem slikanju prsnega koša, ga je mogoče razširiti na večje nabore podatkov z različnimi anatomijami in načini, kot sta MRI in CT, za katera so radiološka poročila lahko bolj zapletena z več ugotovitvami. V takih primerih lahko radiologi ustvarijo vtise po kritičnem vrstnem redu in vključijo priporočila za nadaljnje spremljanje. Poleg tega bi vzpostavitev povratne zanke za to aplikacijo omogočila radiologom, da sčasoma izboljšajo učinkovitost modela.

Kot smo pokazali v tej objavi, natančno nastavljeni model ustvarja vtise za radiološka poročila z visokimi rezultati ROUGE. LLM lahko poskusite natančno prilagoditi na drugih zdravstvenih poročilih, specifičnih za domeno, iz različnih oddelkov.


O avtorjih

Automatically generate impressions from findings in radiology reports using generative AI on AWS | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Dr. Adewale Akinfaderin je višji podatkovni znanstvenik v zdravstvu in znanostih o življenju pri AWS. Njegovo strokovno znanje je na področju ponovljivih in celovitih metod AI/ML, praktičnih implementacij in pomoči globalnim strankam zdravstvenega varstva pri oblikovanju in razvoju razširljivih rešitev za interdisciplinarne probleme. Ima dve diplomi iz fizike in doktorat iz tehnike.

Automatically generate impressions from findings in radiology reports using generative AI on AWS | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Priya Padate je višji arhitekt partnerskih rešitev z obsežnim strokovnim znanjem na področju zdravstva in znanosti o življenju pri AWS. Priya spodbuja strategije trženja s partnerji in spodbuja razvoj rešitev za pospešitev razvoja, ki temelji na AI/ML. Navdušena je nad uporabo tehnologije za preoblikovanje zdravstvene industrije za doseganje boljših rezultatov oskrbe bolnikov.

Automatically generate impressions from findings in radiology reports using generative AI on AWS | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Ekta Walia Bhullar, PhD, je višji svetovalec za AI/ML v poslovni enoti za strokovne storitve AWS Healthcare and Life Sciences (HCLS). Ima bogate izkušnje z uporabo AI/ML na področju zdravstva, zlasti v radiologiji. Izven službe, ko ne razpravlja o AI v radiologiji, rada teče in planinari.

Časovni žig:

Več od Strojno učenje AWS