A Google a kórházakban használt Med-PaLM 2 mesterséges intelligenciaboton grillezett

A Google a kórházakban használt Med-PaLM 2 mesterséges intelligenciaboton grillezett

A Google a kórházakban használt Med-PaLM 2 mesterségesintelligencia-boton grillezett, PlatoBlockchain Data Intelligence. Függőleges keresés. Ai.

A Google-ra nyomást gyakorol egy amerikai törvényhozó, hogy magyarázza el, hogyan képezi ki és telepíti a Med-PaLM 2 orvosi chatbotját a kórházakban.

Mark Warner (D-VA) szenátor ma az internetes óriáscégnek írt írásában is arra buzdította a webtitánt, hogy ne kockáztassák a betegeket a technológia kereskedelmi forgalomba hozatalának rohanása miatt.

A Med-PaLM 2 a Google nagy nyelvi modelljén, a PaLM 2-n alapul, és az orvosi információkra van finomhangolva. A rendszer képes írásbeli válaszokat generálni orvosi kérdésekre, dokumentumokat összegezni és adatokat lekérni. A Google áprilisban mutatta be a modellt, és mondott a Google Cloud ügyfelei egy kiválasztott csoportja tesztelte a szoftvert.

Warner szenátor szerint az egyik ilyen tesztelő a VHC Health, egy virginiai kórház, amely a Mayo Clinichez kapcsolódik. A Google vezetőjének, Sundar Pichainak írt levelében Warner aggodalmát fejezte ki amiatt, hogy a generatív mesterséges intelligencia „összetett új kérdéseket és kockázatokat vet fel”, különösen, ha az egészségügyi ágazatban alkalmazzák.

„Bár a mesterséges intelligencia kétségtelenül hatalmas potenciállal rendelkezik a betegek ellátásának és az egészségügyi eredmények javításában, attól tartok, hogy a nem bizonyított technológia idő előtti bevezetése az egészségügyi szakembereinkbe és intézményeinkbe vetett bizalom eróziójához, az egészségügyi eredményekben meglévő faji egyenlőtlenségek súlyosbodásához, valamint a megnövekedett növekedéshez vezethet. diagnosztikai és ellátási hibák kockázata” – írta [PDF].

„A piaci részesedés megszerzéséért folyó verseny jól látható, és különösen aggasztó az egészségügyi ágazatban, tekintettel a klinikai környezetben elkövetett hibák életre-halálra való következményeire, az egészségügyi intézményekbe vetett bizalom elmúlt években bekövetkezett hanyatlására és az egészségügy érzékenységére. információ."

Levelében a szenátor tucatnyi kérdést tett fel a Google vezetőinek, amelyekre válaszolni kellett. Ezek a lekérdezések a következőket tartalmazták:

A nagy nyelvű modellek gyakran azt a tendenciát mutatják, hogy megjegyzik a képzési adataik tartalmát, ami veszélyeztetheti a páciensek magánéletét az érzékeny egészségügyi információkra kiképzett modellek kontextusában. Hogyan értékelte a Google a Med-PaLM 2-t erre a kockázatra vonatkozóan, és milyen lépéseket tett a Google az érzékeny egészségügyi információk adatvédelmi kiszivárgásának csökkentése érdekében?

Milyen gyakorisággal tanítja a Google teljesen vagy részben újra a Med-PaLM 2-t? Biztosítja a Google, hogy az engedélyesek csak a legfrissebb modellverziót használják?

Biztosítja-e a Google, hogy a betegek tájékoztassák a betegeket, amikor a Med-PaLM 2-t vagy az általa kínált vagy licencelt más mesterséges intelligencia-modelleket az egészségügyi engedélyesek az ellátásukban használják? Ha igen, hogyan jelenik meg a közzététel? Ez egy hosszabb közzététel része, vagy világosabban jelenik meg?

Megőrzi a Google az egészségügyi engedélyesektől származó azonnali információkat, beleértve az ezekben található védett egészségügyi információkat is? Kérjük, sorolja fel az összes célt, amellyel a Google ezeket az információkat megőrzi.

és végül…

A Google saját, a Med-PaLM 2-t bejelentő kutatási kiadványában a kutatók figyelmeztettek arra, hogy „védőkorlátokat kell elfogadni az orvosi asszisztens munkájára való túlzott támaszkodás elkerülése érdekében”. Milyen védőkorlátokat fogadott el a Google a Med-PaLM 2 kimenetére való túlzott támaszkodás mérséklésére, valamint arra, hogy mikor érdemes és mikor nem szabad használni? Milyen védőkorlátokat épített be a Google a terméklicencek feltételeibe, hogy megakadályozza a kimenetre való túlzott támaszkodást?

Csupa jó pont, amit fel kell emelni vagy kiemelni.

A nagy nyelvi modellek hajlamosak meggyőzőnek tűnő hamis információk generálására, ezért félhetünk attól, hogy egy bot magabiztosan osztja ki a káros orvosi tanácsokat, vagy tévesen befolyásolja valaki egészségügyi döntéseit. Az Evészavarok Országos Szövetsége például vette a magáét Tessa chatbot offline, miután azt javasolta az embereknek, hogy számoljanak kalóriát, mérjék meg magukat hetente, és figyeljék a testzsírt – olyan viselkedéseket, amelyek ellentétesek az egészséges felépüléssel.

A Google-DeepMind által írt kutatási cikk részletezve A Med-PaLM 2 elismerte, hogy a modell „válaszai nem voltak olyan kedvezőek, mint az orvosok válaszai”, és a pontosság és a relevancia tekintetében gyengén ért el.

A Warner azt szeretné, ha a Pichai több információt osztana meg a modell klinikai környezetben való alkalmazásáról, és szeretné tudni, hogy a megavállalat gyűjt-e betegadatokat a technológiáját tesztelőktől, és milyen adatokat használtak fel a betanításra. 

Kiemelte, hogy a Google korábban a betegek kifejezett tudta vagy beleegyezése nélkül tárolta és elemezte a betegek adatait az egyesült államokbeli és egyesült királyságbeli kórházakkal kötött ügyletekben. Nightingale projekt transzparens.

„A Google nem szolgáltatott nyilvánosan dokumentációt a Med-PaLM 2-ről, beleértve azt sem, hogy tartózkodott a modell képzési adatainak közzétételétől. A Med-PaLM 2 képzési korpusza tartalmaz védett egészségügyi információkat?” kérdezte. 

A Google szóvivője cáfolta, hogy a Med-PaLM 2 egy chatbot lenne, ahogyan azt ma ismerik, és azt mondta, hogy a modellt az ügyfelek tesztelik, hogy feltárják, hogyan lehet hasznos az egészségügyi ágazat számára. 

„Úgy gondoljuk, hogy a mesterséges intelligencia képes átalakítani az egészségügyet és az orvostudományt, és elköteleztük magunkat amellett, hogy a biztonság, a méltányosság, a bizonyítékok és a magánélet középpontjában álljon a kutatás” – mondta a képviselő. A regisztráció egy nyilatkozatában. 

"Mint meghatározott áprilisban elérhetővé tesszük a Med-PaLM 2-t az egészségügyi szervezetek egy kiválasztott csoportja számára korlátozott tesztelés céljából, a felhasználási esetek feltárása és a visszajelzések megosztása céljából – ez egy kritikus lépés a biztonságos és hasznos technológia kiépítésében. Ezek az ügyfelek megtartják az ellenőrzést adataik felett. A Med-PaLM 2 nem chatbot; ez a nagy nyelvi modellünk finomhangolt változata TENYÉR 2, és az orvosi ismeretek kódolására tervezték.”

A szóvivő nem erősítette meg, hogy a Google válaszol-e Warner szenátor kérdéseire. ®

Időbélyeg:

Még több A regisztráció